Entropía de La Información

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 2

ENTROPA DE LA INFORMACIN

NOMBRE: ALEXANDER TORRES


FECHA:11/10/2017
Entropa fsica termodinmica (Aspecto importante)
Es una magnitud fsica que para un sistema termodinmico en equilibrio mide el nmero
de micro estados compatibles con el macro estado de equilibrio, tambin se puede decir
que mide el grado de organizacin del sistema, o que es la razn de un incremento entre
energa interna frente a un incremento de temperatura del sistema. La entropa es
una funcin de estado de carcter extensivo y su valor, en un sistema aislado, crece en el
transcurso de un proceso que se da de forma natural.
Se utiliza porque mediante clculo, permite determinar la parte de la energa por unidad
de temperatura que no puede utilizarse para producir trabajo.
Entropa teora de sistemas (Aspecto importante)
Es la tendencia que los sistemas tienen al desgaste, a la desintegracin, para el
relajamiento de los estndares y un aumento de la aleatoriedad. La entropa aumenta con
el correr del tiempo. En una organizacin la falta de comunicacin o informacin, el
abandono de estndares, funciones o jerarquas trae el aumento de la de entropa. A
medida que la entropa aumenta, los sistemas se descomponen en estados ms simples. Si
aumenta la informacin, disminuye la entropa, pues la informacin es la base de la
configuracin y del orden. De aqu nace la neguentropa, o sea, la informacin como
medio o instrumento de ordenacin del sistema. Por Ejemplo: La falta de colaboracin,
complementariedad o coordinacin entre las autoridades
Entropa de la teora de la comunicacin (Aspecto importante)
La cantidad de informacin promedio que contienen los smbolos usados. Los smbolos
con menor probabilidad son los que aportan ms informacin; por ejemplo, si se considera
como sistema de smbolos a las palabras en un texto, palabras frecuentes como que,
el, a aportan poca informacin, mientras que palabras menos frecuentes como
corren, nio, perro aportan ms informacin. Si de un texto dado borramos un
que, seguramente no afectar a la comprensin y se sobreentender, no siendo as si
borramos la palabra nio del mismo texto original. Cuando todos los smbolos son
igualmente probables (distribucin de probabilidad plana), todos aportan informacin
relevante y la entropa es mxima.
Calcule la cantidad de bits recibidos en los siguientes eventos
Conocer en que da de la semana estamos

Conocer en que mes estamos

Conocer en minuto se encuentra un partido de futbol

También podría gustarte