Está en la página 1de 14

Suscríbete a DeepL Pro para poder traducir archivos de mayor tamaño.

Más información disponible en www.DeepL.com/pro.

Consulte los debates, las estadísticas y los perfiles de los autores de esta publicación en: https://www.researchgate.net/publication/322557949

Revisión de las técnicas de compresión de datos

Artículo en International Journal of Applied Engineering Research - Enero de 2017.

CITACIONE LEA
S
11,586
21

3 autores, entre ellos:

Tito Waluyo Purboyo Anggunmeka Luhur Prasasti


Universidad Telkom Universidad Telkom
59 PUBLICACIONES 294 CITAS 41 PUBLICACIONES 174 CITAS

VER PERFIL VER PERFIL

Algunos de los autores de esta publicación también trabajan en estos proyectos relacionados:

Vein Tracking Using 880nm Near Infrared and CMOS Sensor with Maximum Curvature Points Segmentation Ver proyecto

Compresión de imágenes Ver proyecto


Todo el contenido que sigue a esta página fue subido por Anggunmeka Luhur Prasasti el 27 de agosto de 2019.

El usuario ha solicitado la mejora del archivo descargado.


Revista internacional de investigación en ingeniería aplicada ISSN 0973-4562 Volumen 12, Número 19 (2017) pp.
8956-8963
© Research India Publications. http://www.ripublication.com
Revisión de las técnicas de compresión de datos

Luluk Anjar Fitriya


Estudiante, Facultad de Ingeniería Eléctrica,
Universidad Telkom, Bandung, Indonesia.
Orcid ID: 0000-0002-3576-3855

Tito Waluyo Purboyo


Profesor, Facultad de Ingeniería Eléctrica,
Universidad Telkom, Bandung, Indonesia.
Id Orcid : 0000-0001-9817-3185

Anggunmeka Luhur Prasasti


Profesor, Facultad de Ingeniería Eléctrica,
Universidad Telkom, Bandung, Indonesia.
Id. Orcid: 0000-0001-6197-4157

Resumen tamaño que puede obstaculizar la transmisión de datos de forma


rápida y ahorrar en el almacenamiento existente en el
Este artículo presenta un tipo de revisión de las técnicas de ordenador. Para superar el problema de
compresión de datos. La compresión de datos es ampliamente
utilizada por la comunidad porque a través de una compresión
podemos ahorrar almacenamiento. La compresión de datos
también puede acelerar una transmisión de datos de una
persona a otra. En la realización de una compresión requiere
un método de compresión de datos que se puede utilizar, el
método puede entonces ser utilizado para comprimir un dato.
Los datos que se pueden comprimir no son sólo datos de texto,
sino que pueden ser imágenes y vídeo. La técnica de
compresión de datos se divide en 2: compresión con pérdida y
compresión sin pérdida. Pero que se utiliza a menudo para
realizar una compresión que es la compresión sin pérdidas. Un
tipo de compresiones sin pérdida como Huffman, Shannon
Fano, Tunstall, Lempel Ziv welch y run-length encoding.
Cada método tiene la capacidad de realizar una compresión
diferente. En este artículo se explica cómo funciona un
método de compresión y qué método es el más adecuado para
comprimir datos en forma de texto. La salida generada al
realizar una compresión puede conocerse a través del tamaño
del archivo de compresión, que se vuelve más pequeño que el
archivo original.
Palabras clave: Compresión de datos, técnicas de
compresión, compresión sin pérdidas, Huffman, Shannon
Fano, Tunstall, RLE, LZW.

INTRODUCCIÓN
Con el rápido desarrollo de la tecnología con el apoyo de
software y hardware que facilitan cada vez más la información
generalizada de forma rápida a través de Internet en todo el
mundo. La información obtenida puede enviarse fácilmente a
través de Internet como medio de comunicación para los
expertos en tecnologías de la información. Sin embargo, no
toda la información se puede enviar fácilmente. Hay un gran

8956
Revista internacional de investigación en ingeniería aplicada ISSN 0973-4562 Volumen 12, Número 19 (2017) pp.
la información o los datos a transmitir o transmitidos pueden
8956-8963
hacerse más rápidamente de lo que©requiere
Researchuna compresión
India Publications. http://www.ripublication.com
que puede ahorrar el almacenamiento y la transmisión de los
datos a realizar.
La compresión es el proceso de convertir un conjunto de
datos en un código para ahorrar la necesidad de
almacenamiento y transmisión de datos facilitando su
transmisión.
Con la compresión de un puede ahorrar en términos de
tiempo y almacenamiento que existen en la memoria
(almacenamiento). Muchas técnicas de algoritmos de
compresión se pueden realizar y funcionan correctamente,
tales como los métodos de Huffman, Lempel Ziv Welch,
Run Length Encoding, Tunstall, And Shannon Fano. El
proceso de compresión de datos se muestra en la figura 1.

Figura 1: Proceso de compresión de datos

En la figura 1, explicar el proceso de compresión de datos en


general. cómo los datos cuando no se comprime a
continuación, los datos sin comprimir se continuará y
procesado por el método de compresión que es la
compresión sin pérdidas a continuación, los datos se ha
comprimido producirá un tamaño menor que el tamaño del
archivo antes de que se comprime.
La compresión consiste en reducir el tamaño de un archivo
de gran tamaño a otro más pequeño. Una compresión se
realiza para facilitar la transmisión de un fichero de gran
tamaño y que contiene muchos caracteres. El
funcionamiento de una compresión consiste en buscar
patrones de repetición en los datos y sustituirlos por un
determinado signo. El tipo de compresión tiene dos
métodos, la compresión sin pérdidas y la compresión con
pérdidas. La compresión sin pérdidas es el proceso de
convertir los datos originales en datos comprimidos.

8957
Revista internacional de investigación en ingeniería aplicada ISSN 0973-4562 Volumen 12, Número 19 (2017) pp.
8956-8963
© Research India Publications. http://www.ripublication.com
datos se hace más concisa sin reducir la pérdida de información, y los resultados de la descompresión no pueden
información. La compresión con pérdida es la prosa producir exactamente el mismo texto que el texto original
convierte los datos originales en los datos de compresión hay (Sayood, 2001).
diferentes valores, pero el valor de esta diferencia se
considera no reduce la información esencial de los datos
originales.
He aquí una explicación de la aplicabilidad que existe en
una compresión de datos
• Compresión de audio
• Compresión de texto
• Compresión de vídeo
• Compresión de imágenes
Compresión de audio
La compresión de audio es una forma de compresión de datos
para reducir el tamaño del archivo de audio / vídeo mediante el
método
- Formato de desbordamiento: Vorbis, MP3;
- Formato ilimitado: FLAC; usuarios: ingenieros de
sonido, audiófilos
Compresión en el momento de la creación del archivo de audio
y en el momento de la distribución del archivo de audio.
Limitaciones de la compresión de audio:
- El desarrollo de la grabación de sonido es rápido y
diverso
- El valor de la muestra de audio cambia rápidamente
Los códecs de audio sin fin no tienen problemas de
calidad de sonido, se puede centrar el uso:
- la velocidad de compresión y descompresión
- El grado de compresión
- Soporta hardware y software
Faltan códecs de audio disponibles
en:
- Calidad de audio
- factor de compresión
- la velocidad de compresión y descompresión
- Latencia inherente del algoritmo (esencial para el
streaming en tiempo real)
- Hardware y software de apoyo

Compresión de texto
El proceso de descompresión devuelve el archivo comprimido
al principio del texto. Los resultados de la descompresión
dependen de la naturaleza de la compresión utilizada, a saber,
compresión sin pérdidas o compresión con pérdidas. Si se ha
aplicado a un texto una técnica de compresión sin pérdidas, el
texto original puede recuperarse correctamente a partir del
archivo descomprimido (Sayood, 2001). La codificación
aritmética es una técnica de compresión sin pérdidas. La
compresión con pérdidas provoca la pérdida de parte de la

8958
Revista internacional de investigación en ingeniería aplicada ISSN 0973-4562 Volumen 12, Número 19 (2017) pp.
8956-8963
© Research India Publications. http://www.ripublication.com
Relación de compresión lo que significa un número máximo de 256 colores (28 = 256
colores), entrelazado en 4 pasadas, transparencia y utiliza
La relación de compresión muestra el porcentaje de variantes del algoritmo de compresión Lempel-Ziv Welch
compresión realizado con respecto al archivo original. La (LZW).
relación de compresión se obtiene a partir de la ecuación:
Diferencia de tamaño Tasa de compresión = x 100% (1) Existen dos tipos de GIF, entre otros:
archivo original GIF87a: soporte con entrelazado y capacidad de múltiples
La diferencia de tamaño = archivo original - archivo de archivos. La técnica se llamó GIF87 porque en 1987 se
compresión (2) Cuanto mayor sea la relación de compresión, encontró este estándar y se convirtió en norma.
menor será el archivo de compresión resultante y mejor será
el resultado de la compresión.

Compresión de vídeo
El vídeo es una tecnología para capturar, grabar, procesar,
transmitir y reorganizar imágenes en movimiento. Suele
utilizar película de celuloide, señal electrónica o soporte
digital.
Para digitalizar y almacenar clips de vídeo de movimiento
completo durante 10 minutos en un ordenador, debe
transferir datos en grandes cantidades en un corto período de
tiempo. Para reproducir un fotograma de un componente de
vídeo digital de 24 bits, los datos informáticos necesarios es
de casi 1 MB, el vídeo no convertido con capa durante 30
segundos se reunirá el disco duro cargado gigabyte. Vídeo
de tamaño completo y el movimiento completo requiere un
equipo que puede transmitir datos de aproximadamente 30
MB por segundo. Los principales cuellos de botella
tecnológicos pueden superarse utilizando esquemas de
conversión de vídeo digital o códecs (codificadores /
descodificadores). Los códecs son algoritmos utilizados para
convertir (codificar) un vídeo que se va a transmitir y, a
continuación, descodificarlo directamente para una
reproducción rápida. Los distintos códecs están optimizados
para diferentes métodos de entrega (por ejemplo, desde
discos duros, CD-ROM o a través de la Web). El objetivo de
la compresión/conversión de vídeo es: minimizar la tasa de
bits en la representación digital de la señal de vídeo,
mantener el nivel deseado de calidad de la señal, minimizar
la complejidad del códec (codificador y decodificador-
codificación y decodificación), y el retardo o retraso
En otras palabras, la compresión de vídeo es una forma de
compresión de datos cuyo objetivo es reducir el tamaño del
archivo de vídeo. La compresión de vídeo consiste en
reducir la cantidad de datos utilizados para representar una
imagen de vídeo digital, y es una combinación de
compresión espacial de imágenes y compresión temporal de
movimiento.

Compresión de imágenes
Formato de intercambio gráfico (GIF) creado por
Compuserve en 1987 para almacenar múltiples imágenes
con formato de mapa de bits en un archivo fácil de cambiar
en una red informática. GIF es el formato de archivo gráfico
más antiguo de la Web. GIF admite píxeles de hasta 8 bits,
8959
Revista internacional de investigación en ingeniería aplicada ISSN 0973-4562 Volumen 12, Número 19 (2017) pp.
8956-8963
© Research India Publications. http://www.ripublication.com
GIF89a: es una continuación de la especificación GIF87a y
adiciones a la transparencia, el texto y la animación de texto y
gráficos. Portable Network Graphic (PNG) formato está
diseñado para ser mejor con el formato anterior que GIF ha
sido legalizado. PNG está diseñado para algoritmos sin
pérdidas para el almacenamiento de una imagen de mapa de
bits.PNG tiene una ecuación característica con GIF uno de los
cuales es (múltiples imágenes), la mejora de algo por ejemplo
(entrelazado, compresión) y la adición de las últimas
características. Soporte para Web donde se pueden hacer plug-
ins en los navegadores web. Joint Photographic Experts
(JPEG, léase jay-peg, [6]) están diseñados para comprimir
algunas imágenes a todo color o en escala de grises de una
imagen original, como la escena original en el mundo. Los
JPEG funcionan bien en imágenes de tonos continuos como
las fotografías o todo el ámbito del arte que permite lo real;
pero no muy bien en la nitidez de las imágenes y el arte de la
coloración como la escritura, los dibujos animados sencillos o
los dibujos que utilizan muchas líneas. Los JPEG ya admiten
una profundidad de color de 24 bits o igual a 16,7 millones de
colores (224 = 16.777.216 colores) Las ventajas de JPEG y
tipo - parecen estar en los mismos pasos que los GIF
entrelazados. JPEG 2000 es la técnica de compresión de
imágenes más reciente. Jpeg 2000 es el desarrollo de Jpeg,
que el número de errores de bits son relativamente bajos,
clasificados, la transmisión y tienen una buena calidad en
comparación con Jpeg. Jpeg 2000 aplica técnicas de
compresión con y sin pérdidas. Y el uso de la codificación
ROI (Región de interés de codificación). JPEG 2000 está
diseñado para Internet, escaneado, fotografía digital,
teledetección, imágenes médicas, biblioteca digital y comercio
electrónico.
Desde los años 80 recordamos que la Unión Internacional de
Telecomunicaciones (UIT) y la Organización Internacional de
Normalización (ISO) colaboran en la normalización de la
compresión en escala de grises y la imagen, que conocemos
con el nombre de JPEG (Joint Photographic Experts). Con el
rápido desarrollo de la tecnología multimedia, que requiere
técnicas de compresión de alto rendimiento, en marzo de 1997
se creó un nuevo proyecto de compresión estándar para
imagen, conocido como JPEG 2000. Este proyecto creó un
nuevo sistema de codificación para distintos tipos de imágenes
(binivel, nivel de gris, color, multicomponente) con diferentes
características (imágenes naturales, científicas, médicas,
teledetección, texto, etc.).

REVISIÓN BIBLIOGRÁFICA
Algoritmo de Shannon Fano
La compresión de datos es una técnica de compresión muy útil
que se utiliza en un método de compresión implosiva que se
utiliza en archivos zip o en formato .rar [2]. El algoritmo
Shannon Fano puede ser implementado usando codificación
VHDL usando el simulador ModelSim SE 6.4 y los datos son
comprimidos usando el algoritmo. Si queremos averiguar la
cantidad de datos que se comprimen utilizando este algoritmo,
podemos hacerlo mediante la siguiente ecuación,
8960
Revista internacional de investigación en ingeniería aplicada ISSN 0973-4562 Volumen 12, Número 19 (2017) pp.
8956-8963
© Research India Publications. http://www.ripublication.com
Cantidad de compresión (relación de compresión)

𝐴𝑚𝑜𝑢𝑛𝑡 𝐷𝑎𝑡𝑎 𝐵𝑖𝑡𝑠 𝐵𝑒𝑓𝑜𝑟𝑒 𝐶𝑜𝑚𝑝𝑟𝑒𝑠𝑠𝑖𝑜𝑛𝑛


𝐴𝑚𝑜𝑢𝑛𝑡 𝐷𝑎𝑡𝑎 𝐵𝑖𝑡𝑠 𝐴𝑓𝑡𝑒𝑟 𝐶𝑜𝑚𝑝𝑟𝑒𝑠𝑠𝑖𝑜𝑛

Cabe destacar que el uso de la compresión de datos puede


mejorarse con el cifrado. Por desgracia, el código Shannon
Fano convencional suele ser relativamente largo. En este
artículo [1] se proponen dos algoritmos para reducir la
longitud del código Shannon Fano. En estas aplicaciones, la
técnica mejorada de codificación Shannon Fano resulta muy
útil [1].

Codificación de la longitud de la carrera


El algoritmo RLE (Run Length Encoding) es un algoritmo
que puede utilizarse para comprimir datos de modo que el
tamaño de los datos producidos sea inferior al tamaño real.
El ejemplo tratado en esta ocasión es el coste y el
rendimiento de los datos de una sentencia.
RLE (Run Length Encoding) es la forma más sencilla de
técnica de compresión de datos sin pérdida en la que una
serie de datos con el mismo valor en secuencia se guardarán
en un dato. Este algoritmo es muy útil en datos que tienen
muchos datos con los mismos valores en secuencia como
archivos de iconos, dibujos lineales y animaciones. Este
algoritmo no es adecuado para datos normales porque
aumentará.
La figura 2 muestra el diagrama de flujo del algoritmo de
codificación de longitud de ejecución.

Figura 2: Diagrama de flujo Compresión de datos con RLE

8961
Revista internacional de investigación en ingeniería aplicada ISSN 0973-4562 Volumen 12, Número 19 (2017) pp.
8956-8963
© Research India Publications. http://www.ripublication.com
Lempel Ziv Welch Figura 3: Diagrama de flujo Compresión de datos con LZW
En general, el algoritmo LZW es un algoritmo de compresión
sin pérdidas y utiliza un diccionario. La compresión LZW
Tunstall
formará un diccionario durante el proceso de compresión se
lleva a cabo.. El algoritmo LZW puede implementarse en El algoritmo Tunstall fue el tema de la tesis de Brian Parker
muchas aplicaciones de compresión. En este experimento [5] Tunstall en 1967, mientras estudiaba en el Instituto de
han proporcionado una comparación entre la codificación Tecnología de Georgia. El tema de esta tesis es "Síntesis de
LZW convencional y la codificación MLZW propuesta [5]. códigos de compresión sin ruido". El algoritmo Tunstall es un
Resultado de la compresión en términos de diccionario. La código que asigna el símbolo de la fuente a un número fijo de
salida del algoritmo LZW es la cantidad de bits o el resultado bits, además de ordenar la fuente estocástica con una
de la compresión del codeword debe ser menor que el archivo codificación de longitud variable.
antes de la compresión. El algoritmo está adaptado al estándar
Unicode, por lo que puede utilizarse fácilmente para cualquier
texto de compresión en Bangla [5]. Huffman
El concepto de este algoritmo es encontrar el nuevo El método Huffman aplicado en este trabajo es un tipo
diccionario a partir de un nuevo carácter. El método LZW estático, que se realiza dos veces (dos pasadas) la lectura de
utiliza un diccionario de ancho de palabra variable para un dato / archivo a comprimir. Para calcular la aparición de
equilibrar el archivo de compresión y descompresión. caracteres en la formación de un árbol de Huffman y codificar
con el símbolo de código Huffman.
Diagrama de flujo Lempel Ziv Welch Algoritmo se le dio la
Figura 3. Este método codifica símbolos o caracteres con la ayuda de un
árbol binario combinando las dos frecuencias más pequeñas
para formar un árbol de códigos.
Los códigos Huffman se basan en el número de frecuencias de
caracteres que aparecen con frecuencia. Cuanto mayor sea la
frecuencia del código Huffman, menor será el número de bits
producidos. A la inversa, cuanto menor sea el número de
caracteres que aparecen, mayor será el número de bits
producidos durante una compresión.
Este algoritmo de compresión Huffman incluye métodos de
compresión sin pérdidas. La compresión sin pérdidas es una
técnica de compresión que no cambia la información de los
datos originales a un tamaño menor.
El algoritmo de Huffman se basa en que cada carácter ASCII
suele estar representado por 8 bits. Por ejemplo, si un archivo
contiene una fila de caracteres "AABCD", el número de bits
del archivo 5 x 8 es 40 bits o 5 bytes. Si a cada carácter se le
asigna un código (por ejemplo, A = 0, B = 10, C = 111, D =
110), sólo necesitaremos un archivo de 10 bits (0010111110),
teniendo en cuenta que los códigos deben ser únicos o, en
otras palabras, que un código no puede formarse a partir de
otros códigos.
Para especificar códigos con criterios de codificación que
deben ser únicos y los caracteres que suelen aparecer se hacen
pequeños por el número de bits, podemos utilizar el algoritmo
de Huffman para comprimir, y formar el Árbol de Huffman.

8962
Revista internacional de investigación en ingeniería aplicada ISSN 0973-4562 Volumen 12, Número 19 (2017) pp.
8956-8963
© Research India Publications. http://www.ripublication.com
Diagrama de flujo Algoritmo de Huffman se dio la Figura 4.

Figura 4: Diagrama de flujo Compresión de datos con Huffman

REVISIÓN Y DEBATES

No. Métodos Nombre del autor Descripción

1 Prefijo Código Yupeng Tai et al[27] Este documento describe el problema del código de redundancia para
el algoritmo. Este algoritmo mejorado con más algoritmo por
ejemplo, Huffman. Proponer este documento es podría acelerar el
clásico de varias veces. La condición es satisfecha generalmente antes
de Huffman entero.
2 Tunstall H.Hashempour et al[28] Este trabajo describe si el algoritmo Tunstall comprime flujos de
datos de prueba. Este algoritmo requiere un algoritmo simple para el
algoritmo de compresión. En el circuito de referencia se han
proporcionado para corroborar la validez de este enfoque a un entorno
ATE.
3 Código Golomb Mattew F.Brejza et al[29] This paper have extended ang generalized the code of give to the
propose another code. También se ha demostrado en una amplia gama
de escenarios de aplicación que su familia de esquemas de proposode
supera varios parámetros de referencia.

4 Lempel Ziv Welch G.R.Gnana King et al[1] Este artículo analiza la compresión y transmisión de una imagen
compuesta. Este diario utiliza la técnica de descomposición y, a
continuación, la imagen modificada se comprime mediante el
algoritmo de Lempel Ziv Welch. El sitio
8963
Revista internacional de investigación en ingeniería aplicada ISSN 0973-4562 Volumen 12, Número 19 (2017) pp.
8956-8963
© Research India Publications. http://www.ripublication.com
se calcula el valor PSNR y el valor MSE (error cuadrático medio). En
comparación con el algoritmo de compresión incrustado, el algoritmo
LZW ofrece un valor PSNR más alto.

Linkon Barua et al[2] En este artículo se muestra el algoritmo MLZW para la compresión de
texto en bengalí. El grado de compresión depende de la frecuencia del
carácter de unión y del signo vocálico dependiente. Los resultados
experimentales muestran que el algoritmo MLZW propuesto mejora
el nivel de compresión de forma efectiva que el algoritmo LZW
convencional. Como el algoritmo propuesto se adapta al estándar
Unicode, puede utilizarse muy fácilmente para la compresión de
textos en bengalí. El algoritmo propuesto también puede utilizarse en
dispositivos de memoria pequeña y en comunicaciones de texto. Estos
resultados demuestran que el algoritmo MLZW propuesto puede ser
un candidato adecuado para la compresión de texto de Bangla. El
algoritmo MLZW propuesto se puede aplicar a otros idiomas que
tienen características similares como el texto de Bangla.
5 Huffman Haoqi Ren[3] Este artículo describe una nueva técnica de compresión de datos de
prueba basada en la codificación de bits principales invertidos y la
codificación Huffman (RLBC-HC). RLBC-HC divide los datos de
prueba en segmentos de codificación con un tamaño adecuado y, en
consecuencia, consigue una alta eficiencia de codificación Huffinan.
El hardware del descodificador es muy sencillo y fácil de
implementar en hardware. El rendimiento del generador de patrones
propuesto se ha demostrado mediante resultados experimentales y
comparaciones con otras técnicas de compresión de datos de prueba.
Djuned F et al[4] El método que proponemos, especialmente los bits de corte LZW
demuestra que tener un resultado de compresión es mejor que usar
LZW de 8 bits. Además de las técnicas de preprocesamiento, esto se
hace bien para crear una imagen en escala de grises más monótona
para que pueda ser comprimida óptimamente por Huffman
Adaptativo. El archivo de salida es un archivo estructurado que
contiene los metadatos de la imagen original y el flujo de bits de
compresión no estructurado. Se trata de una compresión con pérdida.
LZW con el problema de almacenamiento de bits cuando se utiliza para
comprimir datos o datos aleatorios sin comprimir. Pero si se utiliza la
técnica de troceado de datos, LZW puede parecer más armónico, ya
que al utilizarla, los datos formarán un flujo de bits más repetitivo.

CONCLUSIÓN Conferencia internacional sobre avances en la


investigación en ingeniería y tecnología, 01-02 de
La compresión de datos puede aplicarse a datos de texto, fotos
agosto de 2014.
y vídeo. Las distintas técnicas de algoritmos de compresión
tienen ventajas e inconvenientes a la hora de comprimir. [3] Lung-Jen Lee, Wang-Dauh Tseng, Rung-Bin Lin, y
Cheng-Ho Chang, " Pattern Run-Length for Test Data
compression", IEEE Transaction on Computer-Aded
REFERENCIAS Design of Integrated Circuits And System, Vol.31,
No.4,Abril,2012.
[1] Xiaoyu Ruan, Rajendra Katti, "Using Improved
Shannon-Fano-Elias Codes Data Encryption", [4] Mohammad Arif, R.S.Anand, "Run Length Encoding
Proceedings of ISIT Conference, North Dakota State for Speech Data Comprassion", IEEE International
University Fargo, 9-14 de julio de 2006. Conference on Computional Intelligence and
Computing Research, 2012.
[2] Mahesh Vaidya, Ekjot Singh Walia y Aditya Gupta,
"Data Compression Using Shannon-Fano Algorithm [5] Linkon Barua, Pranab Kumar Dhar, Lamia Alam, and
Implemented By VHDL", IEEE. Isao Echizen, " Bangla Text Compression Based on
Modified Lempel-Ziv-Welch Algorithm", International
Conference on Electrical, Computer and
Communication Engineering (ECCE), Bangladesh,
8964
Revista internacional
February 16-8,2017. de investigación en ingeniería aplicada ISSN 0973-4562 Volumen 12, Número 19 (2017) pp.
8956-8963
© Research India Publications. http://www.ripublication.com

8965
Revista internacional de investigación en ingeniería aplicada ISSN 0973-4562 Volumen 12, Número 19 (2017) pp.
8956-8963
© Research India Publications. http://www.ripublication.com
[6] G.R.Gnana King, C.Seldev Christoper, And N.Albert Conferencia Internacional IEEE Humanoid,
Singh, " Coumpound Image Compression Using Parallel Nanotechnology, Información
Lempel Ziv-Welch Algorithm", IET Chennati Fourth Comunicación y control de
International Conference on Sustainable Energy and tecnologías, medio ambiente y gestión (HNICEM).
Intelligent System,Chennati,December 12-14, 2013. Filipinas, 9-12 de diciembre de 2015.
[7] Haoqi Ren, " A data Comprssion Technique based on [19] C. Oswald, Anirban I Ghosh y B.Sivaselvan,
Resersed Leading Bits Coding and Huffman Coding", "Knowledge Engineering Perspective of Text
International Conference on Communication and Compression", IEEE INDICON, India, 2015.
Networking, China, 2015.
[20] Ardiles Sinaga, Adiwijaya y Hertog Nugroho,
[8] Djuned Fernando Djusdek, Hudan Studiawan, y Tohari "Development of Word-Based Text Compression
Ahmad, " Adaptive Image Compression Using Adaptive Algorithm for Indonesian Language Document",
Huffman and LZW", International Conference on Conferencia Internacional sobre Tecnología de la
Information, Communication Technology and System, Información y la Comunicación (ICoICT), Indonesia,
2016. 2015.
[9] Tsutomu Kawabata, " Enumerative Implementation of [21] Manjeet Kaur, "Algoritmo de compresión de datos de
Lempel-Ziv-77 Algorithm", ISIT, Toronto, Canadá, 6- texto sin pérdidas utilizando el algoritmo de Huffman
11 de julio de 2008. modificado", Revista internacional de investigación
avanzada en informática e ingeniería de software, india,
[10] Adrian Traian Murgan, Radu Radescu, " A Comprison
julio de 2015.
of Algorthm for Lossless Data Compression Using the
Lempel-Ziv-Welch Type Methods", Bucarest. [22] Tanvi Patel, Kruti Dangarwala,Judith Angela y Poonam
Choudhary, "Survey of Text Compression Algorithms",
[11] Victor Amrizal, " Implementasi Algoritma Kompresi
International Journal of Engineering Research &
Data Huffamn Untuk Memperkecil Ukuran File MP3
Technology (IJERT), India, marzo de 2015.
Player", 2-14,2010.
[23] Shmuel T. Klein y Dana Shapira, "On Improving
[12] Cut Try Utari, " Implementasi Algoritma Run Length
Tunstall Codes", Information Processing &
Encoding Untuk Perancangan Aplikasi Kompresi dan
Management, Israel, septiembre de 2011.
Dekompresi File Citra", Jurnal TIMES, Vol.V No.2, 24-
31, 2016. [23] Mohammad Hosseini, "A Survey of Data Compression
Algorithms and their Applications", Applications of
[13] M.VidyaSagar, J.S, Rose Victor, "Modified Run Length
Advanced Algorithms, en la Universidad Simon Fraser,
Encoding Scheme for High Data Compression Rate",
Canadá, enero de 2012
International Journal of Advanced Research in
Computer Engineering & Technology (IJARCET), [24] Maria Roslin Apriani Neta, "Perbandingan Algoritma
Vijayawada, diciembre de 2013. Kompresi Terhadap Objek Citra Menggunakan JAVA",
Seminar Nasional Teknologi Informasi & Komunikasi
[14] K. Ashok Babu y V. Satish Kumar, "Implementation of
Terapan 2013 ( SEMANTIK 2013), Semarang,
Data Compression Using Huffman Coding",
Noviembre de 2013.
International Conference on Methods and Models in
Computer Science, India, 2010. [25] Dr. Shabana Mehfz1, Usha Tiwad, "A Tunstall Based
Lossless Compression Algorithm for Wireless Sensor
[15] Harry Fernando, "Kompresi data dengan algoritma
Networks", India Conference (INDICON), 2015
Huffman dan algoritma lainnya", ITB, Bandung.
Annual IEEE, India, 2015.
[16] Mohammed Al-laham1 & Ibrahiem M. M. El Emary,
[26] Dr. Ahmad Odat, Dr. Mohammed Otair y Mahmoud
"Comparative Study between Various Algorithms of
Al-Khalayleh, "Comparative Study between LM-DH
Data Compression Techniques", IJCSNS International
Technique and Huffman Coding Technique",
Journal of Computer Science and Network Security,
International Journal of Applied Engineering
Jordania, abril de 2007.
Research, India.
[17] S.R.Kodituwakku y U.S.Amarasinghe, "Comparison of
[27] Yupeng Tai, Haibin Wang, " A Fast Algorithm for
Lossless Data Compression Algorithms for Text",
Calculating Minumum Redudancy Prefix Codes with
Indian Journal of Computer Science and Engineering,
Unsorted Alphabet", International CHINACOM,China.
Sri Lanka.
[28] H. Hashempour, L. Schiano y F. Lombardi, "Error-
[18] Rhen Anjerome Bedruz y Ana Riza F. Quiros,
Resilient Test Data Compression Using Tunstall Code",
"Comparison of Huffman Algorithm and Lempel-Ziv
Boston Mass 02115.
Algorithm for Audio, Image and Text Compression",

8966
Revista internacional de investigación en ingeniería aplicada ISSN 0973-4562 Volumen 12, Número 19 (2017) pp.
8956-8963
© Research India Publications. http://www.ripublication.com
[29] Matthew F.Brejza, Tao Wang, Wenbo Zhang, David
Al- Khalili, Robert G. Maunder, Basher M. Al-Hashimi
y Lajoz Hanzo, " Exponential Golomb and Rice Error
Correction Codes for Generalized Near-Capacity Joint
Source and Channel Coding, UK.

8967

Ver estadísticas de
publicación

También podría gustarte