1. En un organizador gráfico explique los elementos de la teoría fuente
Mapa Mental creado con GoConqr por Alex Ortiz
2. En un resumen corto, mencione el fundamento de la entropía
El nivel de información de una
fuente se puede medir según la entropía de la misma. Dada una fuente F que
emite mensajes, resulta frecuente observar que los mensajes emitidos no
resulten equiprobables sino que tienen una cierta probabilidad de ocurrencia
dependiendo del mensaje. El promedio de bits utilizados para codificar los
mensajes debe ser menor a la cantidad de
bits promedio de los mensajes originales. Esta es la base de la compresión de
datos. La entropía de la fuente determina el nivel de compresión que podemos
obtener como máximo para un conjunto de datos. El objetivo de la compresión de
datos es encontrar los Li que minimizan a H, además los Li se deben determinar
en función de los Pi, pues la longitud de los códigos debe depender de la
probabilidad de ocurrencia de los mismos.
3. En un mapa conceptual, defina la entropía de una fuente.
Mapa Mental creado con GoConqr por Alex Ortiz
4. Cuál es el fundamento de la
entropía de la información, sus fórmulas.
La entropía nos indica el límite
teórico para la compresión de datos. Su cálculo se realiza mediante la siguiente fórmula:
Donde H es la entropía, las p son
las probabilidades de que aparezcan los diferentes códigos y m el número total
de códigos. Se utiliza habitualmente el logaritmo en base 2, y entonces la
entropía se mide en bits.
La longitud promedio de todos los mensajes codificados de la fuente se puede obtener como:
La longitud mínima con la cual puede codificarse un mensaje puede calcularse como Li=log2(1/Pi) = -log2(Pi). Esto da una idea de la longitud a emplear en los códigos a usar para los caracteres de un archivo en función de su probabilidad de ocurrencia. Reemplazando Li podemos escribir H como:
No hay comentarios:
Publicar un comentario