Compresión+de+datos

1. **INTRODUCCIÓN** El mayor problema en compartir datos, no solo sea de información, sino también datos audiovisuales ha sido la redundancia. Este pequeño factor influye mucho con lo que es el tamaño de un archivo. Por eso en varios sistemas operativas han implementado su forma más adecuada de borrar esta redundancia con la compresión de datos, conlleva mucho las características del mimos y sobre todo su aplicación. Estas redundancias o irrelevancias suelen aparecer en grandes escalas, por su variación de longitud que son bastante comunes. Lo que se aplica al comprimir datos es sencillamente buscar una solución algorítmica que representada por datos, genera otras representación más compactas o pequeñas. Al comprimir datos, como se representa o se elimina información existen dos tipos de compresiones, unas con perdidas y otras sin perdidas. La compresión sin perdidas de un conjunto de datos es una transformación de la inicial a un producto escala que al descomprimir llega a ser la original. Principalmente se guarda los datos de origen, se cuida mucho la integridad de los datos. La compresión con perdidas esa representada de manera análoga a la compresión sin perdidas con la distinción que es casi igual a la original. Estas compresiones son utilizadas más que todo en datos audiovisuales e imágenes. Sin embargo esta compresión con pérdidas desde un punto de vista más profesional no llega a ser la mejor solución, por el hecho de que se parezca un poco a la original. Toda información abarca un espacio codificado, esto se debe a la proporcionalidad que existe entre el tamaño del archivo y los bits que se empleen. El proceso de compresión es más complejo de lo que suena, porque la compresión busca parámetro de repetición exactos, como por ejemplo: Haciendo un hincapié en el algoritmo de Huffman, es un sistema de compresión bastante utilizado, que permitió obtener tasas de compresión de un 50 %, inclusive llegando a más porcentaje. Todo eso depende de la cantidad de flujo de datos comunes del usuario. La aplicación más básica y utilizada en compresión es en la transmisión de datos de imágenes o documentos, que se conoce con el nombre de //facsímil// (FAC). En el caso de la compresión en documentos, la redundancia se ve en los espacios en blanco que quedan en el documento y se repiten con frecuencia. Lo que realiza el FAC, reconoce el documento como una serie de cadenas que se codifican en base a su longitud, es decir, a su recorrido. Una vez realizado todo ese proceso se transmite el código representativo en vez de codificar la representación original. Los códigos de compresión ya están establecidos para la representación de diferentes recorridos en intervalos. Existe una fórmula o relación que permite visualizar la eficiencia de los métodos de compresión utilizados, se llama índice de compresión o fracción de reducción de datos: [ Longitud(entrada) - Longitud(salida) ] / [ Longitud(entrada) ] Si se quiere tener un porcentaje, sencillamente se le multiplica por el cien por ciento. En el libro de “Estructuras de datos y algoritmos con Java” de Adam Drozdek, hace un algoritmo de la codificación por el método de Huffman de una manera sencilla que se presenta a continuación. Mediante repetición expresadas por al sentencia de //for// y esto se repite mientras (//while)//, siga con las condiciones. Basada en nodos raíces y ordenadas por arboles y determinando un valor de ocurrencia o repetición de un símbolo o carácter. Black, Uyless D. (1987). //Redes de transmisión de datos y proceso distribuido// Drozdek Adam. (2005). //Estructuras de datos y algoritmos con Java// Forouza, Behrouz A. (2003). //Transmisión de datos y redes de comunicación.// Madrid: McGRAW-Hill.
 * {$page} **
 * 2. DESARROLLO**
 * <span style="font-family: 'Arial','sans-serif'; font-size: 16px;">Las series largas se comprimen en series más breves.
 * <span style="font-family: 'Arial','sans-serif'; font-size: 16px;">El algoritmo de Huffman, analiza los caracteres de información que se repiten bastante para luego acortarlas mediante una codificación.
 * 3. OTROS QUE EL AUTOR CONSIDERE**
 * 4. REFERENCIAS BIBLIOGRAFICAS**

(Estudiante: Nombre_Completo ) en fecha fecha de la edición ( <span style="font-family: "Arial","sans-serif"; font-size: 12.0pt; line-height: 150%; mso-bidi-font-size: 11.0pt;">Marcelo Gamboa Hermosa, Andrés Javier Oliver Zapata, Alejandro Rocabado Claure) 21/05/13
 * Seguimiento de aportes: (*) Esto es para hacer un seguimiento de los aportes, copiar la linea siguiente cada ves que se edite, no borrar las existentes.**


 * AUTOR:** {$creator}

//Esta pagina fue editada {$pagerevisions} veces. La ultima modificación fue realizada por//

//user:{$revisioneditor} el {$revisiondate}// <span style="display: block; height: 1px; left: -40px; overflow: hidden; position: absolute; top: 747.5px; width: 1px;"> <span style="font-family: "Arial","sans-serif"; font-size: 12.0pt; line-height: 150%; mso-bidi-font-size: 11.0pt;">Marcelo Gamboa Hermosa <span style="font-family: "Arial","sans-serif"; font-size: 12.0pt; line-height: 150%; mso-bidi-font-size: 11.0pt;">Andrés Javier Oliver Zapata <span style="font-family: "Arial","sans-serif"; font-size: 12.0pt; line-height: 150%; mso-bidi-font-size: 11.0pt;">Alejandro Rocabado Claure