Examen Final de Teoría de La Información Grupo 03 2020-I

Descargar como doc, pdf o txt
Descargar como doc, pdf o txt
Está en la página 1de 4

Código: F010

FACULTAD DE INGENIERÍAS
ÁREA DE PROGRAMAS INFORMÁTICOS Versión: 02

ASIGNATURA: Teoría de la Información CÓDIGO: ING01198 GRUPO:


DOCENTE: Mauricio Correa Villa FECHA: VALOR: 20%

NOMBRE:_______________________________________ DOCUMENTO: ________________

PRIMER PUNTO – SELECCIÓN MÚLTIPLE. (10/20)


1. Considere un código unívoco que asocia los símbolos de una fuente S con palabras formadas por símbolos
de un alfabeto r-ario, entonces este código será compacto respecto a S:
A. Si su longitud media es igual o D. Si su longitud media es igual o mayor que la longitud
menor que la longitud media de todos los códigos unívocos que pueden media de todos los códigos unívocos que pueden
aplicarse a la misma fuente y el mismo alfabeto. aplicarse a la misma fuente y el mismo alfabeto.
B. Si su longitud media es igual que la E. Si su longitud media mayor que la longitud media
longitud media de todos los códigos unívocos que pueden aplicarse a la de todos los códigos unívocos que pueden aplicarse a
misma fuente y el mismo alfabeto. la misma fuente y el mismo alfabeto
C. Si su longitud media es menor que la
longitud media de todos los códigos unívocos que pueden aplicarse a la
misma fuente y el mismo alfabeto.

2. Dada una fuente de memoria nula tal que S=(S1, S2, S3, S4) y todos los símbolos equiprobables. Entonces
la entropía de esta fuente es igual a 2 bits/símbolo. Se desprende que:
A. Es imposible codificar los símbolos de esta fuente mediante un código D. No es posible construir un código binario
binario unívoco, de longitud media inferior a 2 bit/símbolo unívoco con símbolos equiprobables.
B. Un código compacto deberá tener cuatro palabras de longitud mayor a 2 E. Ninguna de las anteriores
bit/símbolo
C. Es posible codificar los símbolos de esta fuente mediante un código
binario no singular, de longitud media inferior a 2 bit/símbolo

3. En la construcción de códigos r-arios no es cierto que:


A. Se deben combinar r símbolos de manera que constituyan uno solo en la D. Se debe ascender (hacía atrás) añadiendo símbolos de
siguiente fuente reducida. la fuente inicial a los símbolos de probabilidad
B. Por combinar r-1 símbolos en uno solo, cada fuente tendrá r-1 símbolos reducida.
menos que la precedente. E. A los símbolos falsos se les atribuye una
C. La última fuente tendrá r símbolos solamente si la fuente original estaba probabilidad de tal manera que la sumatoria de todas
formada por r+α(r-1) símbolos, siendo α un número entero. las probabilidades de todos Si sea igual a 1.

4. En un canal de información es posible calcular la equivocación si solamente:


A. Se conoce las probabilidades de entrada. D. Se conoce la información mutua.
B. Se conocen las probabilidades hacía atrás y las probabilidades de los símbolos de salida. E. Se conoce la entropía a priori y las
C. Se conocen las probabilidades hacía adelante. probabilidades hacia atrás.

5. En un canal de información determinante:


A. La entropía de A es suficiente para determinar información mutua de A D. La matriz tiene un elemento y solamente uno distinto
y B. de cero en cada columna.
B. La entropía de B es suficiente para determinar información mutua de A E. La información mutua de A y B es mayor que la
y B. información mutua de B y A
C. La equivocación de B con respecto a A es mayor que cero.

6. Aplicando el método de Huffman se va a generar un código compacto de r = 6 (símbolos del alfabeto original). Si se obtienen 5 fuentes
reducidas, entonces el número de símbolos Si (considerando además los símbolos falsos) son iguales a:
A. 28 D. 30
B. 31 E. Ninguna de las anteriores
C. 26
7. Las ecuaciones que representan a la matriz desplegada en la figura es:
b1 b2
a1  p q 
a 2  r s 

A. P(b1) = P(a1)p + P(a2)r; P(b2) = P(a1)q + P(a2)s D. P(b2) = P(a2)p + P(a1)r; P(b1) = P(a2)q + P(a1)s
B. P(b2) = P(a1)p + P(a2)r; P(b1) = P(a1)q + P(a2)s E. Ninguna de las anteriores.
C. P(b1) = P(a1)q + P(a2)p; P(b2) = P(a1)s + P(a2)r

8. Para un canal determinante expresado en una matriz de 3*2, en el cual H(A/b 1)=0, se asegura que:
A. I(B; A) = H(A) D. H(A) = 1 bit/simb.
B. P(a1) = P(b1) E. Ninguna de las anteriores
C. P(a1/b1) = 1

9. La cantidad de información mutua de la extensión de orden 4 para un canal binario con una matriz identidad 3x3 y que tiene entropía apriori
máxima es igual a:
A. 4 log 3 3 D. ⅓ log 2 3
B. 3 log 2 4 E. Ninguna de las anteriores
C. 4 log 3 4

10.Sean C1 y C2 un sistema de dos canales en serie, con alfabetos de entrada A={ai} y B={bi} respectivamente. Si la incertidumbre respecto a
la entrada de C1 es de 0,59 bit/símbolo y si se obtienen 0,49 bit/simbolo de información a la salida de C1 y 0,39 bit/simbolo cantidad de
información a la salida de C2, entonces puede decirse que:
A. C1 y C2 tienen ruido D. El canal C1 no tiene ruido y las P(a/c) son cero o uno
B. P(a/b) = P(a/c) y C2 no tiene ruido E. Ninguna de las anteriores
C. P(a/b) = P(a/c) y C1 tiene ruido

SEGUNDO PUNTO: (4/20). Para el siguiente canal, estime la cantidad de información mutua desde el punto de vista de un canal sin ruido.
En este canal, las probabilidades de los símbolos del alfabeto A son iguales, como también lo son las probabilidades condicionales de salida de A
hacía B. Analice el canal y comente acerca de sus características.

a1
a2 b1
a3
a4 b2
a5 b3
a6
a7 b4
a8 b5
a9
a10 b6
a11
TERCER PUNTO: (2/20)
Demuestre por qué en un canal sin ruido, el número medio de bits necesarios para definir la entrada, conocidas las salidas, siempre es igual a
cero.
CUARTO PUNTO: (4/20)
La redundancia de un código trinario es de 0.086. Si su longitud media es de 1 trinit/símbolo.
a). Calcule el valor medio de la incertidumbre de un observador antes de conocer la salida
b). las probabilidades de sus palabras son de la forma (1/r) li ?. Explique.

También podría gustarte