La entropía física mide el grado de organización de un sistema termodinámico en equilibrio. La entropía de la teoría de sistemas se refiere a la tendencia natural de los sistemas a degradarse y volverse más aleatorios con el tiempo. La entropía de la teoría de la comunicación mide la cantidad promedio de información contenida en los símbolos utilizados en un sistema, donde símbolos menos probables aportan más información.
0 calificaciones0% encontró este documento útil (0 votos)
51 vistas2 páginas
La entropía física mide el grado de organización de un sistema termodinámico en equilibrio. La entropía de la teoría de sistemas se refiere a la tendencia natural de los sistemas a degradarse y volverse más aleatorios con el tiempo. La entropía de la teoría de la comunicación mide la cantidad promedio de información contenida en los símbolos utilizados en un sistema, donde símbolos menos probables aportan más información.
La entropía física mide el grado de organización de un sistema termodinámico en equilibrio. La entropía de la teoría de sistemas se refiere a la tendencia natural de los sistemas a degradarse y volverse más aleatorios con el tiempo. La entropía de la teoría de la comunicación mide la cantidad promedio de información contenida en los símbolos utilizados en un sistema, donde símbolos menos probables aportan más información.
La entropía física mide el grado de organización de un sistema termodinámico en equilibrio. La entropía de la teoría de sistemas se refiere a la tendencia natural de los sistemas a degradarse y volverse más aleatorios con el tiempo. La entropía de la teoría de la comunicación mide la cantidad promedio de información contenida en los símbolos utilizados en un sistema, donde símbolos menos probables aportan más información.
Descargue como PDF, TXT o lea en línea desde Scribd
Descargar como pdf o txt
Está en la página 1de 2
ENTROPA DE LA INFORMACIN
NOMBRE: ALEXANDER TORRES
FECHA:11/10/2017 Entropa fsica termodinmica (Aspecto importante) Es una magnitud fsica que para un sistema termodinmico en equilibrio mide el nmero de micro estados compatibles con el macro estado de equilibrio, tambin se puede decir que mide el grado de organizacin del sistema, o que es la razn de un incremento entre energa interna frente a un incremento de temperatura del sistema. La entropa es una funcin de estado de carcter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se da de forma natural. Se utiliza porque mediante clculo, permite determinar la parte de la energa por unidad de temperatura que no puede utilizarse para producir trabajo. Entropa teora de sistemas (Aspecto importante) Es la tendencia que los sistemas tienen al desgaste, a la desintegracin, para el relajamiento de los estndares y un aumento de la aleatoriedad. La entropa aumenta con el correr del tiempo. En una organizacin la falta de comunicacin o informacin, el abandono de estndares, funciones o jerarquas trae el aumento de la de entropa. A medida que la entropa aumenta, los sistemas se descomponen en estados ms simples. Si aumenta la informacin, disminuye la entropa, pues la informacin es la base de la configuracin y del orden. De aqu nace la neguentropa, o sea, la informacin como medio o instrumento de ordenacin del sistema. Por Ejemplo: La falta de colaboracin, complementariedad o coordinacin entre las autoridades Entropa de la teora de la comunicacin (Aspecto importante) La cantidad de informacin promedio que contienen los smbolos usados. Los smbolos con menor probabilidad son los que aportan ms informacin; por ejemplo, si se considera como sistema de smbolos a las palabras en un texto, palabras frecuentes como que, el, a aportan poca informacin, mientras que palabras menos frecuentes como corren, nio, perro aportan ms informacin. Si de un texto dado borramos un que, seguramente no afectar a la comprensin y se sobreentender, no siendo as si borramos la palabra nio del mismo texto original. Cuando todos los smbolos son igualmente probables (distribucin de probabilidad plana), todos aportan informacin relevante y la entropa es mxima. Calcule la cantidad de bits recibidos en los siguientes eventos Conocer en que da de la semana estamos
Conocer en que mes estamos
Conocer en minuto se encuentra un partido de futbol