Interrogación Modelos Lineales Generalizados

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 4

Interrogación Modelos Lineales Generalizados

1.- En un modelo lineal simple, de la forma Y=β_0+β_1 X_1+ε, β ̂_1 representa el cambio
en la respuesta por unidad de cambio en el predictor y además β_1=β ̂_1. VERDADERO
2.- Mientras el tamaño muestral aumenta, la calidad de las predicciones y por tanto el R^2
mejora. VERDADERO: Esto se debe a que un mayor tamaño de muestra proporciona una
representación más completa y precisa de la población, lo cual permite realizar
estimaciones más confiables y reducir la variabilidad en las predicciones.
Aunque en general un aumento en el tamaño muestral tiende a mejorar la calidad de las
predicciones y el R2 , es esencial considerar otros factores y tener precaución para evitar
interpretaciones simplistas.
3.- La verificación del supuesto de autocorrelación en los predictores es fundamental para
justificar un ajuste lineal. FALSO: La autocorrelación puede ser relevante en el contexto de
series temporales, pero no es un supuesto fundamental en un modelo de regresión lineal
clásico. La validez del ajuste lineal se basa en otros supuestos clave, como la linealidad de
la relación entre las variables, la independencia de los errores, la homocedasticidad
(varianza constante de los errores) y la normalidad de los errores.

4.- La distancia de Cook es una buena estadística para cuantificar la calidad del ajuste.
VERDADERO: La distancia de Cook por sí sola no proporciona una medida directa de la
calidad global del ajuste del modelo. Se utiliza específicamente para identificar
observaciones influyentes.La calidad del ajuste de un modelo lineal puede evaluarse
mediante diversas estadísticas y medidas, como el coeficiente de determinación (R2), la
significancia de los coeficientes, la normalidad de los residuos, entre otros.

5.- Las transformaciones sobre las variables predictoras no están permitidas en un modelo
lineal, pues pueden afectar la distribución de la respuesta. FALSO: Las transformaciones de
las variables predictoras son comunes y pueden ser aplicadas en un modelo lineal para
mejorar la relación entre las variables y la distribución de la respuesta.

6.- Basado en el principio de parsimonia, un ajuste lineal con solo un predictor, siempre es
el mejor y más parsimonioso. FALSO: Un modelo con un solo predictor puede ser
demasiado simple para capturar la complejidad de las relaciones entre las variables y podría
subestimar la verdadera estructura subyacente de los datos.

7.- Es posible realizar las estimaciones de los parámetros en un modelo lineal, sin
necesidad de suponer normalidad en la respuesta. VERDADERO

8.- La interpretación de un intervalo de confianza, considerando un nivel de significancia del


5% es: la probabilidad de que el parámetro esté contenido en el intervalo de confianza es
del 0.95. FALSO: El intervalo de confianza no se refiere a la probabilidad de que el
parámetro específico esté dentro del intervalo; en cambio, representa la confianza en que el
intervalo captura el verdadero valor del parámetro poblacional en un número grande de
muestras
9.- β0 corresponde al punto de intersección de la recta estimada con el eje vertical Y.
VERDADERO

10.- Para una matriz de diseño de tres variables regresoras, el número total de modelos a
3 3
generar, considerando incluso las interacciones es (2 − 1) + (2 − 1)3! FALSO: el
3
número total de modelos con términos principales e interacciones sería 2 −1+3!
Para entender la cantidad de modelos a generar, primero debemos considerar las
combinaciones posibles para cada variable regresora:

- Para una variable regresora, tenemos 2 opciones: incluirla en el modelo (1) o no incluirla
(0). Por lo tanto, tendremos 2^1 = 2 modelos posibles.
- Para dos variables regresoras, tendremos 2^2 = 4 combinaciones posibles: (0,0), (0,1),
(1,0) y (1,1). Esto se debe a que hay dos opciones para cada variable regresora (incluir o no
incluir).
- Para tres variables regresoras, tendremos 2^3 = 8 combinaciones posibles: (0,0,0), (0,0,1),
(0,1,0), (0,1,1), (1,0,0), (1,0,1), (1,1,0) y (1,1,1).

Sin embargo, la fórmula dada en la afirmación menciona que debemos sumar también las
permutaciones de las interacciones. Esto no es correcto, ya que solo se consideran las
combinaciones posibles, no las permutaciones.

Por lo tanto, el número total de modelos a generar será 2 + 4 + 8 = 14.

11.- Normalizar la respuesta y estandarizar son lo mismo. FALSO: normalizar la respuesta


implica ajustar la variable de respuesta, mientras que estandarizar implica ajustar las
variables predictoras para que tengan propiedades específicas de media y varianza.

12.- La prueba F se justifica en la distribución ji-cuadrado de la suma de cuadrados del error


y la suma de cuadrados de la regresión. VERDADERO
La afirmación es parcialmente correcta. La prueba F en un modelo de regresión lineal
compara la variabilidad explicada con la variabilidad no explicada. Aunque la prueba F no
está directamente basada en la distribución chi-cuadrado, sigue una distribución F bajo
ciertas condiciones.

13.- El supuesto de homocedasticidad se puede lograr incrementando el número de


predictores. FALSO: Agregar más predictores no garantiza que la variabilidad de los errores
se mantenga constante a lo largo de los valores de las variables. Para lograr
homocedasticidad en un modelo de regresión, es crucial verificar los supuestos del modelo
y ajustar si es necesario

14.- El supuesto de homocedasticidad se focaliza en la igualdad de varianza de las


estimaciones de los parámetros. FALSO:se refiere a la igualdad de varianzas de los errores
o residuos a lo largo de los niveles de las variables predictoras, no a la igualdad de
varianzas de las estimaciones de los parámetros.
15.- Cuando nuestro modelo contiene solo una variable regresora, entonces la estadística F
y la t, son coincidentes. VERDADERO

16.- Las conclusiones de AIC, BIC y 𝑅^2 siempre son coincidentes. FALSO: Son medidas
que evalúan diferentes aspectos de un modelo, por lo que sus conclusiones pueden no ser
siempre coincidentes

17.- Al incorporar un factor con más de dos niveles como predictor, la selección del nivel de
referencia puede afectar la significancia de algún efecto. VERDADERO

18.- Para que la interacción de variables regresoras en un modelo sea significativa, cada
variable regresora debe serlo de manera marginal. FALSO: La interacción entre variables
regresoras puede ser significativa incluso si alguna o todas las variables regresoras
individualmente no son significativas de manera marginal. . La interacción implica que el
efecto de una variable predictor no es constante y depende de la presencia o nivel de otra
variable.

19.- El efecto de un dato influyente recae en las estimaciones de los parámetros.


VERDADERO.

20.- No es posible corregir el supuesto de normalidad VERDADERO

21.- La aplicación de la transformación 𝑙𝑛 busca cambiar los efectos máximos y mínimos de


la variable regresora intervenida FALSO
La aplicación de la transformación ln (logaritmo natural) no tiene como objetivo cambiar los
efectos máximos y mínimos de una variable regresora intervenida. El propósito principal de
aplicar la transformación ln es lograr una relación lineal entre las variables o reducir la
asimetría en los datos, especialmente cuando la relación entre las variables no es lineal o
cuando los residuos no cumplen con los supuestos del modelo de regresión.
22.- Existen dos formas de llegar al mejor modelo, una que es partir del modelo saturado y
poco a poco ir retirando regresoras, y el otro es ir incorporando de una en una las
regresoras. VERDADERO

23.- La regresión lineal se soporta en 5 supuestos a verificar: Normalidad,


homocedasticidad, multicolinealidad, autocorrelación e influencia. VERDADERO

24.- La interpretación de 𝑒^(𝛽 ̂_1 )<1 hace referencia una dependencia inversa entre el
predictor y la respuesta VERDADERO

25.- La función de enlace en el modelo logístico es conocida como logit y está dada por
𝑙𝑛(𝑝/(1−𝑝)) VERDADERO

26.- La diferencia entre ML y MLG respecto a lo que explican recae en que los ML explican
la variable respuesta, y en los MLG se explica una transformación de la respuesta,
denominada función de enlace. VERDADERO

27.- La gran diferencia entre un ML y MLG recae en el supuesto de normalidad, supuesto


necesario en ML y su no verificación justifica los MLG VERDADERO
Ambos tipos de modelos comparten el supuesto de linealidad en los parámetros, pero
difieren en cómo manejan la distribución de los errores. Mientras que los ML requieren la
normalidad de los errores, los MLG son más flexibles y pueden manejar distribuciones no
normales gracias a su estructura más general que incluye funciones de enlace y de
varianza.

28.- El ODD representa una razón entre la probabilidad de éxito y la probabilidad de fracaso
VERDADERO

29.- ODD pequeños representan superioridad en la probabilidad de fracaso VERDADERO


FALSO
Un Odds Ratio (OR) menor a 1 indica que la variable predictor está asociada con una
disminución en la probabilidad de éxito en comparación con la referencia. No se refiere a
una superioridad en la probabilidad de fracaso, sino a una relación inversa con la variable
de interés.

30.- Todas las distribuciones que no son normales son identificadas por la familia
exponencial FALSO: Existen muchas otras distribuciones que no son normales pero que no
pertenecen a la familia exponencial. Por ejemplo, la distribución t de Student, la distribución
uniforme, la distribución de Weibull, entre otras, no forman parte de la familia exponencial.

31.- Al expresar la función de enlace como combinación lineal de los predictores, significa
que siempre las variables regresoras deben estar en potencia 1. FALSO: Las variables
pueden estar presentes en diversas formas, incluyendo diferentes potencias,
transformaciones logarítmicas, interacciones, entre otras, dependiendo del modelo
específico y la relación entre las variables predictoras y la variable de respuesta.

32.- Un modelo lineal general aditivo se caracteriza por la suma de sus parámetros en el
modelo. FALSO: Un modelo lineal general aditivo (GAM, por sus siglas en inglés) se
caracteriza por ser aditivo en las funciones de las variables predictoras, pero no
necesariamente en la suma directa de los parámetros del modelo.

33.- Un MLG multinivel se caracteriza por que sus predictores pueden ser expresados como
combinación lineal de otros predictores. FALSO: En un modelo lineal generalizado multinivel
(MLG multinivel), la característica clave no es que sus predictores puedan ser expresados
como combinación lineal de otros predictores, sino que considera niveles jerárquicos o
anidados en los datos.

También podría gustarte