Examen Final de Teoría de La Información Grupo 03 2020-I
Examen Final de Teoría de La Información Grupo 03 2020-I
Examen Final de Teoría de La Información Grupo 03 2020-I
FACULTAD DE INGENIERÍAS
ÁREA DE PROGRAMAS INFORMÁTICOS Versión: 02
2. Dada una fuente de memoria nula tal que S=(S1, S2, S3, S4) y todos los símbolos equiprobables. Entonces
la entropía de esta fuente es igual a 2 bits/símbolo. Se desprende que:
A. Es imposible codificar los símbolos de esta fuente mediante un código D. No es posible construir un código binario
binario unívoco, de longitud media inferior a 2 bit/símbolo unívoco con símbolos equiprobables.
B. Un código compacto deberá tener cuatro palabras de longitud mayor a 2 E. Ninguna de las anteriores
bit/símbolo
C. Es posible codificar los símbolos de esta fuente mediante un código
binario no singular, de longitud media inferior a 2 bit/símbolo
6. Aplicando el método de Huffman se va a generar un código compacto de r = 6 (símbolos del alfabeto original). Si se obtienen 5 fuentes
reducidas, entonces el número de símbolos Si (considerando además los símbolos falsos) son iguales a:
A. 28 D. 30
B. 31 E. Ninguna de las anteriores
C. 26
7. Las ecuaciones que representan a la matriz desplegada en la figura es:
b1 b2
a1 p q
a 2 r s
A. P(b1) = P(a1)p + P(a2)r; P(b2) = P(a1)q + P(a2)s D. P(b2) = P(a2)p + P(a1)r; P(b1) = P(a2)q + P(a1)s
B. P(b2) = P(a1)p + P(a2)r; P(b1) = P(a1)q + P(a2)s E. Ninguna de las anteriores.
C. P(b1) = P(a1)q + P(a2)p; P(b2) = P(a1)s + P(a2)r
8. Para un canal determinante expresado en una matriz de 3*2, en el cual H(A/b 1)=0, se asegura que:
A. I(B; A) = H(A) D. H(A) = 1 bit/simb.
B. P(a1) = P(b1) E. Ninguna de las anteriores
C. P(a1/b1) = 1
9. La cantidad de información mutua de la extensión de orden 4 para un canal binario con una matriz identidad 3x3 y que tiene entropía apriori
máxima es igual a:
A. 4 log 3 3 D. ⅓ log 2 3
B. 3 log 2 4 E. Ninguna de las anteriores
C. 4 log 3 4
10.Sean C1 y C2 un sistema de dos canales en serie, con alfabetos de entrada A={ai} y B={bi} respectivamente. Si la incertidumbre respecto a
la entrada de C1 es de 0,59 bit/símbolo y si se obtienen 0,49 bit/simbolo de información a la salida de C1 y 0,39 bit/simbolo cantidad de
información a la salida de C2, entonces puede decirse que:
A. C1 y C2 tienen ruido D. El canal C1 no tiene ruido y las P(a/c) son cero o uno
B. P(a/b) = P(a/c) y C2 no tiene ruido E. Ninguna de las anteriores
C. P(a/b) = P(a/c) y C1 tiene ruido
SEGUNDO PUNTO: (4/20). Para el siguiente canal, estime la cantidad de información mutua desde el punto de vista de un canal sin ruido.
En este canal, las probabilidades de los símbolos del alfabeto A son iguales, como también lo son las probabilidades condicionales de salida de A
hacía B. Analice el canal y comente acerca de sus características.
a1
a2 b1
a3
a4 b2
a5 b3
a6
a7 b4
a8 b5
a9
a10 b6
a11
TERCER PUNTO: (2/20)
Demuestre por qué en un canal sin ruido, el número medio de bits necesarios para definir la entrada, conocidas las salidas, siempre es igual a
cero.
CUARTO PUNTO: (4/20)
La redundancia de un código trinario es de 0.086. Si su longitud media es de 1 trinit/símbolo.
a). Calcule el valor medio de la incertidumbre de un observador antes de conocer la salida
b). las probabilidades de sus palabras son de la forma (1/r) li ?. Explique.