lunes, 24 de octubre de 2016

Actividad N°6

Prepare un analices similar al caso planteado en el ejemplo donde se obtenga el cálculo de la entropía con ejemplos de codificación.

Las etapas de la vida de un humano son:
B: Bebe
N: Niño
A: Adolecente
D: Adulto
M: Adulto Mayor

Que dice la teoría de Shannon para el manejo de entropías de casos de la información.

El concepto básico de entropía en teoría de la información tiene mucho que ver con la incertidumbre que existe en cualquier experimento o señal aleatoria. Es también la cantidad de "ruido" o "desorden" que contiene o libera un sistema. De esta forma, podremos hablar de la cantidad de información que lleva una señal.
Como ejemplo, consideremos algún texto escrito en español, codificado como una cadena de letras, espacios y signos de puntuación (nuestra señal será una cadena de caracteres). Ya que, estadísticamente, algunos caracteres no son muy comunes (por ejemplo, 'y'), mientras otros sí lo son (como la 'a'), la cadena de caracteres no será tan "aleatoria" como podría llegar a ser.
Obviamente, no podemos predecir con exactitud cuál será el siguiente carácter en la cadena, y eso la haría aparentemente aleatoria. Pero es la entropía la encargada de medir precisamente esa aleatoriedad, y fue presentada por Shannon en su artículo de 1948 A Mathematical Theory of Communication ("Una teoría matemática de la comunicación", en inglés). Shannon ofrece una definición de entropía que satisface las siguientes afirmaciones:
La medida de información debe ser proporcional (continua). Es decir, el cambio pequeño en una de las probabilidades de aparición de uno de los elementos de la señal debe cambiar poco la entropía.
Si todos los elementos de la señal son equiprobables a la hora de aparecer, entonces la entropía será máxima.

 Porqué nlogn como medida para el cálculo de las entropías.

Se usa el logaritmo en base 2 porque se considera que la información se va a representar mediante código binario (se quiere representar con bits). Si para representar la información se usaran valores en una base {\displaystyle a} entonces sería conveniente utilizar el logaritmo en base {\displaystyle a}

¿Qué pasa con los sistemas de probabilidades distintas?

No son tan eficaces a diferencia de la Teoría de Shannon


miércoles, 19 de octubre de 2016

Actividad N°5


 1. En un organizador gráfico explique los elementos de la teoría fuente
Mapa Mental creado con GoConqr por Alex Ortiz

2. En un resumen corto, mencione el fundamento de la entropía

El nivel de información de una fuente se puede medir según la entropía de la misma. Dada una fuente F que emite mensajes, resulta frecuente observar que los mensajes emitidos no resulten equiprobables sino que tienen una cierta probabilidad de ocurrencia dependiendo del mensaje. El promedio de bits utilizados para codificar los mensajes debe ser  menor a la cantidad de bits promedio de los mensajes originales. Esta es la base de la compresión de datos. La entropía de la fuente determina el nivel de compresión que podemos obtener como máximo para un conjunto de datos. El objetivo de la compresión de datos es encontrar los Li que minimizan a H, además los Li se deben determinar en función de los Pi, pues la longitud de los códigos debe depender de la probabilidad de ocurrencia de los mismos.

3. En un mapa conceptual, defina la entropía de una fuente.

Mapa Mental creado con GoConqr por Alex Ortiz
4. Cuál es el fundamento de la entropía de la información, sus fórmulas.
La entropía nos indica el límite teórico para la compresión de datos. Su cálculo se realiza mediante la siguiente fórmula:

Donde H es la entropía, las p son las probabilidades de que aparezcan los diferentes códigos y m el número total de códigos. Se utiliza habitualmente el logaritmo en base 2, y entonces la entropía se mide en bits.

La longitud promedio de todos los mensajes codificados de la fuente se puede obtener como:

La longitud mínima con la cual puede codificarse un mensaje puede calcularse como Li=log2(1/Pi) = -log2(Pi). Esto da una idea de la longitud a emplear en los códigos a usar para los caracteres de un archivo en función de su probabilidad de ocurrencia. Reemplazando Li podemos escribir H como:


lunes, 17 de octubre de 2016

Actividad N°4 Pregunta 3

Mapa Mental creado con GoConqr por Alex Ortiz

Activad N°4 Preguntas 2 y 4

2. En un resumen corto, mencione cual fue el desarrollo de la teoría de la comunicación

Empezó con un modelo propuesto por Shannon en el que un sistema general de la comunicación que parte de una fuente de información desde la cual, a través de un transmisor, se emite una señal, la cual viaja por un canal. La señal sale del canal, llega a un receptor que decodifica la información convirtiéndola posteriormente en mensaje que pasa a un destinatario. Con el modelo de la teoría de la información se trata de llegar a determinar la forma más económica, rápida y segura de codificar un mensaje. Un concepto fundamental en la teoría de la información es que la cantidad de información contenida en un mensaje es un valor matemático bien definido y medible.

4. Cuál es el fundamento de la teoría aplicada a la tecnología, cuáles fueron sus pilares y las aplicaciones más usadas en la actualidad.
Internet fue creado a partir de un proyecto del departamento de defensa de los Estados Unidos cuyo propósito principal era la investigación y desarrollo de protocolos de comunicación para redes de área amplia para ligar redes de transmisión de paquetes de diferentes tipos capaces de resistir las condiciones de operación más difíciles. Estas investigaciones dieron como resultado el protocolo TCP/IP, un sistema de comunicaciones muy sólido y robusto bajo el cual se integran todas las redes que conforman lo que se conoce actualmente como Internet.
Mediante este sistema, los paquetes viajan a través de la red hasta que llegan al destino deseado; una vez ahí, la computadora de destino quita el sobre y procesa la información; en caso de ser necesario envía una respuesta a la computadora de origen usando el mismo procedimiento.
Una de las aplicaciones de la teoría de la información son los archivos ZIP, documentos que se comprimen para su transmisión a través de correo electrónico o como parte de los procedimientos de almacenamiento de datos.

La teoría de la información también entra en uso con otros tipos de archivo; por ejemplo, los archivos de audio y vídeo que se reproducen en un reproductor de MP3 se comprimen para una fácil descarga y almacenamiento en el dispositivo. Cuando se accede a los archivos se amplían para que estén inmediatamente disponibles para su uso.

Actividad N° 4 La importancia de la Teoría de la Comunicación y la Información. Pregunta1

Mapa Mental creado con GoConqr por Alex Ortiz

miércoles, 5 de octubre de 2016

Actividad de Aprendizaje N°1

Cómo es el proceso para la búsqueda de información utilizando fuentes
Se calcula que los científicos utilizan un 20% del su tiempo como investigadores haciendo bibliografía, es decir, recuperando información. Por ello es importante que se aprenda a hacerlo bien.
ACTIVIDADES DEL APRENDIZAJE 
Para los fines pertinentes a la fijación de conceptos, a la aprehensión de conocimientos y al manejo de elementos teórico – prácticos, realice los siguientes ejercicios:
a. Cuáles son las fuentes de información según el nivel informativo 
1. Fuente de Información Primaria.
2. Fuente de Información Secundaria.
3. Fuente de Información Terciaria.
b. Que es una Fuente de Información Primaria 
Aquellas fuentes que contienen información nueva u original y cuya disposición no sigue, habitualmente, ningún esquema predeterminado
c. Mencione dos tipos de Información Primaria
1.  Libros
2. Revistas Convencionales
d. Que es una Fuente de Información secundaria
Aquellas que contienen material ya conocido, pero organizado según un esquema determinado. La información que contiene referencia a documentos primarios.
e. Menciones dos tipos de información secundaria 
1. Revistas de resúmenes
2. Índices
f. Cuáles son las Fuentes de Información Terciarias 
Son aquellas fuentes que contienen información de las secundarias. Son fuentes que no están muy tratadas aún en su conceptualización y naturaleza.
g. Mencione un tipo de Información Terciaria 
1. Revistas
h. Que es una Base de Datos
Es una entidad en la cual se pueden almacenar datos de manera estructurada, con la menor redundancia posible. Diferentes programas y diferentes usuarios deben poder utilizar estos datos.

Actividad N° 1 Resumen Fuentes de información generales

Mapa Mental creado con GoConqr por Alex Ortiz