domingo, 22 de abril de 2012

Entropia y el modelo de la información ....


Originalmente nacida en la termodinámica como lo muestra el libro The Information y bajo las propuestas de Maxwell enfocadas a la termodinámica mismas que fueron postulados y en donde se mezcla varias “teorías” para sus demostraciones como la estadística, la probabilidad, la información y trata de dar una explicación del origen de la entropía en el ámbito de la termodinámica y haciendo una comparación directa en la teoría de la información.

En el texto The Mathematical Theory of Communication desde mi punto de vista para poder estar en condiciones de entender el capitulo 7 es necesario ahondar en mas apartados del libro, ya que trata de “aterrizar” si se le puede llamar de alguna manera, a la teoría de la información y comprobar la entropía por medio de métodos “lógicos” (logaritmo basado en la probabilidad) haciendo coincidir la teoría inicialmente de la termodinámica en la teoría de la información

Básicamente el video y las lecturas nos dan un panorama de donde nace y como se llega a la entropía, como es que se articula la teoría de la información y como el papel que juega la entropía, nos muestra su conformación y lo importante que es en la teoría de la información y lo importante del modelo de Shannon.




FUENTE DE INFORMACION: Selecciona el mensajedeseado de un conjunto de mensajes posibles.
TRANSMISOR: Transforma o codifica estainformación en una forma apropiada al canal.
SEÑAL: Mensaje codificado por el transmisor.
CANAL: Medio a través del cual las señales son transmitidas al punto de recepción.
FUENTE DE RUIDO: Conjunto de distorsiones o adiciones no deseadas por la fuente de información que afectan a la señal. Pueden consistir en distorsiones del sonido (radio, teléfono), distorsiones de la imagen (T.V.), errores de transmisión (telégrafo), etc.
RECEPTOR: Decodifica o vuelve a transformar la señal transmitida en el mensaje original o en una aproximación de este haciéndolo llegar a su destino.


Entropía e información


Creo que los postulados que podemos extraer son:
  • Medición de la información
  • Este establece que mientras más probable sea un mensaje menos información proporcionará
  • La probabilidad que tiene un mensaje de ser enviado y no su contenido, lo que determina su valor informativo
  • La información es tratada como magnitud física, caracterizando la información de una secuencia de símbolos utilizando la Entropía
  • De acuerdo a la teoría de la información, el nivel de información de una fuente se puede medir según la Entropía de la misma.

Para codificar los mensajes de una fuente intentaremos pues utilizar menor cantidad de bits para los mensajes más probables y mayor cantidad de bits para los mensajes menos probables de forma tal que el promedio de bits utilizados para codificar los mensajes sea menor a la cantidad de bits promedio de los mensajes originales. Siendo la base de la compresión de datos.

Salu2



jueves, 19 de abril de 2012

Bienvenida a tod@s a este nuevo Blog

Hola, mi nombre es Eduardo Muñoz y curso la Maestría en Tecnologías de Información y Administración en el ITAM, actualmente comparto con ustedes este nuevo Blog que servirá como ventana para expresar algunas opiniones propias en relación a las Tecnologías de la Información.

Salu2