miércoles, 30 de noviembre de 2016
lunes, 24 de octubre de 2016
Actividad N°6
Prepare un analices similar al caso planteado en el ejemplo donde se
obtenga el cálculo de la entropía con ejemplos de codificación.
Las etapas de la vida de un
humano son:
B: Bebe
N: Niño
A: Adolecente
D: Adulto
M: Adulto Mayor
Que dice la teoría de Shannon para el manejo de entropías de casos de
la información.
El concepto básico de entropía en
teoría de la información tiene mucho que ver con la incertidumbre que existe en
cualquier experimento o señal aleatoria. Es también la cantidad de
"ruido" o "desorden" que contiene o libera un sistema. De
esta forma, podremos hablar de la cantidad de información que lleva una señal.
Como ejemplo, consideremos algún
texto escrito en español, codificado como una cadena de letras, espacios y
signos de puntuación (nuestra señal será una cadena de caracteres). Ya que,
estadísticamente, algunos caracteres no son muy comunes (por ejemplo, 'y'),
mientras otros sí lo son (como la 'a'), la cadena de caracteres no será tan
"aleatoria" como podría llegar a ser.
Obviamente, no podemos predecir
con exactitud cuál será el siguiente carácter en la cadena, y eso la haría
aparentemente aleatoria. Pero es la entropía la encargada de medir precisamente
esa aleatoriedad, y fue presentada por Shannon en su artículo de 1948 A
Mathematical Theory of Communication ("Una teoría matemática de la
comunicación", en inglés). Shannon ofrece una definición de entropía que
satisface las siguientes afirmaciones:
La medida de información debe ser
proporcional (continua). Es decir, el cambio pequeño en una de las
probabilidades de aparición de uno de los elementos de la señal debe cambiar
poco la entropía.
Si todos los elementos de la
señal son equiprobables a la hora de aparecer, entonces la entropía será
máxima.
Porqué nlogn como medida para el
cálculo de las entropías.
Se usa el logaritmo en base 2 porque se considera que la información se
va a representar mediante código binario (se quiere representar con bits). Si para representar la información se usaran valores
en una base {\displaystyle
a} entonces sería
conveniente utilizar el logaritmo en base {\displaystyle
a}
¿Qué pasa con los sistemas de probabilidades distintas?
No son tan eficaces a diferencia
de la Teoría de Shannon
miércoles, 19 de octubre de 2016
Actividad N°5
1. En un organizador gráfico explique los elementos de la teoría fuente
Mapa Mental creado con GoConqr por Alex Ortiz
2. En un resumen corto, mencione el fundamento de la entropía
El nivel de información de una
fuente se puede medir según la entropía de la misma. Dada una fuente F que
emite mensajes, resulta frecuente observar que los mensajes emitidos no
resulten equiprobables sino que tienen una cierta probabilidad de ocurrencia
dependiendo del mensaje. El promedio de bits utilizados para codificar los
mensajes debe ser menor a la cantidad de
bits promedio de los mensajes originales. Esta es la base de la compresión de
datos. La entropía de la fuente determina el nivel de compresión que podemos
obtener como máximo para un conjunto de datos. El objetivo de la compresión de
datos es encontrar los Li que minimizan a H, además los Li se deben determinar
en función de los Pi, pues la longitud de los códigos debe depender de la
probabilidad de ocurrencia de los mismos.
3. En un mapa conceptual, defina la entropía de una fuente.
Mapa Mental creado con GoConqr por Alex Ortiz
4. Cuál es el fundamento de la
entropía de la información, sus fórmulas.
La entropía nos indica el límite
teórico para la compresión de datos. Su cálculo se realiza mediante la siguiente fórmula:
Donde H es la entropía, las p son
las probabilidades de que aparezcan los diferentes códigos y m el número total
de códigos. Se utiliza habitualmente el logaritmo en base 2, y entonces la
entropía se mide en bits.
La longitud promedio de todos los mensajes codificados de la fuente se puede obtener como:
La longitud mínima con la cual puede codificarse un mensaje puede calcularse como Li=log2(1/Pi) = -log2(Pi). Esto da una idea de la longitud a emplear en los códigos a usar para los caracteres de un archivo en función de su probabilidad de ocurrencia. Reemplazando Li podemos escribir H como:
lunes, 17 de octubre de 2016
Activad N°4 Preguntas 2 y 4
2. En un resumen corto, mencione cual fue el desarrollo de
la teoría de la comunicación
Empezó con un modelo propuesto
por Shannon en el que un sistema general de la comunicación que parte de una
fuente de información desde la cual, a través de un transmisor, se emite una señal,
la cual viaja por un canal. La señal sale del canal, llega a un receptor que
decodifica la información convirtiéndola posteriormente en mensaje que pasa a
un destinatario. Con el modelo de la teoría de la información se trata de
llegar a determinar la forma más económica, rápida y segura de codificar un
mensaje. Un concepto fundamental en la teoría de la información es que la
cantidad de información contenida en un mensaje es un valor matemático bien
definido y medible.
4. Cuál es el fundamento de la
teoría aplicada a la tecnología, cuáles fueron sus pilares y las aplicaciones
más usadas en la actualidad.
Internet fue creado a partir de
un proyecto del departamento de defensa de los Estados Unidos cuyo propósito
principal era la investigación y desarrollo de protocolos de comunicación para
redes de área amplia para ligar redes de transmisión de paquetes de diferentes
tipos capaces de resistir las condiciones de operación más difíciles. Estas
investigaciones dieron como resultado el protocolo TCP/IP, un sistema de
comunicaciones muy sólido y robusto bajo el cual se integran todas las redes
que conforman lo que se conoce actualmente como Internet.
Mediante este sistema, los
paquetes viajan a través de la red hasta que llegan al destino deseado; una vez
ahí, la computadora de destino quita el sobre y procesa la información; en caso
de ser necesario envía una respuesta a la computadora de origen usando el mismo
procedimiento.
Una de las aplicaciones de la
teoría de la información son los archivos ZIP, documentos que se comprimen para
su transmisión a través de correo electrónico o como parte de los
procedimientos de almacenamiento de datos.
La teoría de la información
también entra en uso con otros tipos de archivo; por ejemplo, los archivos de
audio y vídeo que se reproducen en un reproductor de MP3 se comprimen para una
fácil descarga y almacenamiento en el dispositivo. Cuando se accede a los
archivos se amplían para que estén inmediatamente disponibles para su uso.
miércoles, 5 de octubre de 2016
Actividad de Aprendizaje N°1
Cómo es el proceso para la búsqueda de información utilizando fuentes
Se calcula que los científicos utilizan un 20% del
su tiempo como investigadores haciendo bibliografía, es decir, recuperando
información. Por ello es importante que se aprenda a hacerlo bien.
ACTIVIDADES DEL APRENDIZAJE
Para los fines pertinentes a la fijación de
conceptos, a la aprehensión de conocimientos y al manejo de elementos teórico –
prácticos, realice los siguientes ejercicios:
a. Cuáles son las fuentes de información según el nivel
informativo
1. Fuente de Información Primaria.
2. Fuente de Información Secundaria.
3. Fuente de Información Terciaria.
b. Que es una Fuente de Información Primaria
Aquellas fuentes que contienen información nueva u
original y cuya disposición no sigue, habitualmente, ningún esquema
predeterminado
c. Mencione dos tipos de Información Primaria
1. Libros
2. Revistas Convencionales
d. Que es una Fuente de Información secundaria
Aquellas que contienen material ya conocido, pero
organizado según un esquema determinado. La información que contiene referencia
a documentos primarios.
e. Menciones dos tipos de información secundaria
1. Revistas de resúmenes
2. Índices
f. Cuáles son las Fuentes de Información Terciarias
Son aquellas fuentes que contienen información de
las secundarias. Son fuentes que no están muy tratadas aún en su
conceptualización y naturaleza.
g. Mencione un tipo de Información Terciaria
1. Revistas
h. Que es una Base de Datos
Es una entidad en la cual se pueden almacenar datos
de manera estructurada, con la menor redundancia posible. Diferentes programas
y diferentes usuarios deben poder utilizar estos datos.
Suscribirse a:
Entradas (Atom)