miércoles, 19 de octubre de 2016

Actividad N°5


 1. En un organizador gráfico explique los elementos de la teoría fuente
Mapa Mental creado con GoConqr por Alex Ortiz

2. En un resumen corto, mencione el fundamento de la entropía

El nivel de información de una fuente se puede medir según la entropía de la misma. Dada una fuente F que emite mensajes, resulta frecuente observar que los mensajes emitidos no resulten equiprobables sino que tienen una cierta probabilidad de ocurrencia dependiendo del mensaje. El promedio de bits utilizados para codificar los mensajes debe ser  menor a la cantidad de bits promedio de los mensajes originales. Esta es la base de la compresión de datos. La entropía de la fuente determina el nivel de compresión que podemos obtener como máximo para un conjunto de datos. El objetivo de la compresión de datos es encontrar los Li que minimizan a H, además los Li se deben determinar en función de los Pi, pues la longitud de los códigos debe depender de la probabilidad de ocurrencia de los mismos.

3. En un mapa conceptual, defina la entropía de una fuente.

Mapa Mental creado con GoConqr por Alex Ortiz
4. Cuál es el fundamento de la entropía de la información, sus fórmulas.
La entropía nos indica el límite teórico para la compresión de datos. Su cálculo se realiza mediante la siguiente fórmula:

Donde H es la entropía, las p son las probabilidades de que aparezcan los diferentes códigos y m el número total de códigos. Se utiliza habitualmente el logaritmo en base 2, y entonces la entropía se mide en bits.

La longitud promedio de todos los mensajes codificados de la fuente se puede obtener como:

La longitud mínima con la cual puede codificarse un mensaje puede calcularse como Li=log2(1/Pi) = -log2(Pi). Esto da una idea de la longitud a emplear en los códigos a usar para los caracteres de un archivo en función de su probabilidad de ocurrencia. Reemplazando Li podemos escribir H como:


No hay comentarios:

Publicar un comentario