0% encontró este documento útil (0 votos)
9 vistas

Caso 2 MLS

Cargado por

dan027052
Derechos de autor
© © All Rights Reserved
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
9 vistas

Caso 2 MLS

Cargado por

dan027052
Derechos de autor
© © All Rights Reserved
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 7

Universidad Mayor de San Simón Facultad de Ciencias Económicas

Econometría Prof. Hernán Delgadillo Dorado

Práctica Modelo Lineal Simple

Estudiantes: Arnez Lezcano Ludmila Ayelen


Coca Condori Leídi Laura

1. ¿Por qué cree usted que se denomina modelo lineal simple?

R. Por qué quiere aproximar la dependencia entre una variable dependiente Y, y otra
independiente X. O sea, consiste en generar un modelo de regresión que permite expresar
la relación lineal entre dos variables.

2. ¿Qué importancia tienen las hipótesis, postulados o supuestos del MLS?

R. Son de mucha importancia porque con estos se hacen afirmaciones mutuamente


excluyentes sobre una población para determinar que afirmación es mejor admitida por
los datos de la muestra.

Por otro lado, el cumplimiento de los supuestos es de gran importancia para validar su
confiabilidad, eso quiere decir que al intentar aplicar el modelo lineal simple es necesario
examinar los supuestos que la condicionan.

3. ¿Por qué aparecen los problemas econométricos?

R. Aparecen cuando no se cumplen las hipótesis o postulados, estos problemas son:

 Error de especificación del modelo.


 Si Yi fuera una variable dicotómica para una muestra pequeña asumiría una
distribución binomial (normalidad).
 Heteroscedasticidad o dispersión desigual o varianza distinta del terminó
estocástico.
 Auto correlación
 El problema de exogeneidad

4. ¿Qué métodos de estimación conoce para el MLS?

R. Los métodos de estimación para el MLS son:

 Estimadores mínimos cuadráticos


 Estimación por intervalos
 Máximo verisimilitud
5. ¿Para qué se transforman los datos observados a desviaciones?

R. Los datos observados se transforman a desviaciones para poder analizar y comparar


las diferencias entre las observaciones de una variable y los valores esperados, se pueden
identificar patrones y tendencias que no son visibles en los datos originales.

La transformación de los datos observados a desviaciones permite:

 Evaluar la calidad del ajuste del modelo: Los valores observados y los valores
predichos por el modelo pueden diferir, y las desviaciones miden cuánto se
desvían los valores observados del modelo. Si las desviaciones son grandes,
entonces el modelo no se ajusta bien a los datos observados.
 Identificar patrones en los datos: Las desviaciones también pueden ser útiles para
identificar patrones en los datos que no están capturados por el modelo. Por
ejemplo, si las desviaciones son más grandes para ciertos valores de la variable
explicativa, esto puede indicar que el modelo no está capturando una relación no
lineal entre la variable explicativa y la variable de respuesta.
 Estimar los errores de predicción: Las desviaciones también se pueden utilizar
para estimar los errores de predicción del modelo. Si se supone que los errores
son aleatorios y tienen una distribución normal, entonces las desviaciones
tendrán una distribución normal con media cero. Al calcular la varianza de las
desviaciones, se puede estimar la varianza de los errores de predicción del
modelo, lo que puede ser útil para la evaluación del modelo y la toma de
decisiones.
 Analizar las series temporales y el estudio de la relación entre dos o más
variables. Por ejemplo, al analizar la distribución de una variable, las
desviaciones pueden ayudar a identificar si los valores observados se concentran
en torno a los valores esperados o si hay una dispersión o variabilidad alta o baja
en los datos.
 Además, al comparar varias variables, la transformación a desviaciones puede
ayudar a comparar los valores de diferentes variables en una misma escala, lo
que facilita la comparación y la interpretación de los resultados.

6. ¿Cuál es la importancia de las propiedades de los estimadores mínimos cuadráticos?

R. Estas propiedades de los estimadores son: Linealidad, insesgabilidad, consistencia,


eficiencia. El cual la importancia de estás propiedades es que al cumplirse en una gran
mayoría se vuelve en el estimador que da más nivel de confianza al momento de ser
aplicada.
7. ¿Cómo puede explicar la varianza del término estocástico y su importancia en la
varianza de los estimadores?

R. Su importancia se encuentra en que al hallar la variabilidad del estimador se toma


como más confiable al que tiene una varianza mínima, el cual se aproxima a los
pronósticos que queremos hacer por lo que se acerca más a nuestros resultados.

8. ¿Qué base teórica sustenta la estimación por intervalos de los estimadores?

R. La estimación por intervalos consiste en establecer el intervalo de valores donde es


más probable se encuentre el parámetro. La obtención del intervalo se basa en las
siguientes consideraciones:

a) Si conocemos la distribución muestral del estimador podemos obtener las


probabilidades de ocurrencia de los estadísticos muéstrales.
b) Si conociéramos el valor del parámetro poblacional, podríamos establecer la
probabilidad de que el estimador se halle dentro de los intervalos de la
distribución muestral.
c) El problema es que el parámetro poblacional es desconocido, y por ello el
intervalo se establece alrededor del estimador. Si repetimos el muestreo un gran
número de veces y definimos un intervalo alrededor de cada valor del estadístico
muestral, el parámetro se sitúa dentro de cada intervalo en un porcentaje conocido
de ocasiones. Este intervalo es denominado "intervalo de confianza".

9. ¿Para qué se realizan pruebas de hipótesis nula individual y grupal de los


parámetros?

R. Para estimar parámetros de manera general y por otro lado de manera más puntual.

Las pruebas de hipótesis nula individual y grupal de los parámetros se realizan para
evaluar la significancia de los coeficientes de las variables explicativas en un modelo.
Estas pruebas son importantes porque permiten determinar si las variables explicativas
están relacionadas significativamente con la variable de respuesta y si el modelo
proporciona una buena descripción de los datos.

Las pruebas de hipótesis nula individual se realizan para evaluar la significancia de cada
coeficiente de las variables explicativas de forma individual. En estas pruebas, se plantea
una hipótesis nula que afirma que el coeficiente de la variable explicativa es igual a cero,
lo que significa que la variable no tiene efecto sobre la variable de respuesta. Si el valor
p asociado a la prueba es menor que un nivel de significancia dado, se rechaza la hipótesis
nula y se concluye que la variable explicativa es estadísticamente significativa.

Las pruebas de hipótesis nula grupal, por otro lado, se realizan para evaluar la
significancia conjunta de un conjunto de variables explicativas. Estas pruebas son útiles
cuando se quiere determinar si un grupo de variables tiene un efecto conjunto
significativo sobre la variable de respuesta. En estas pruebas, se plantea una hipótesis
nula que afirma que todos los coeficientes de las variables explicativas en el grupo son
iguales a cero, lo que significa que el grupo de variables no tiene efecto sobre la variable
de respuesta. Si el valor p asociado a la prueba es menor que un nivel de significancia
dado, se rechaza la hipótesis nula y se concluye que el grupo de variables es
estadísticamente significativo.

10. ¿Por qué es necesario un análisis de correlación?

R. El análisis de correlación es necesario porque permite examinar la relación entre dos


variables y determinar si existe una asociación entre ellas. Es decir, el análisis de
correlación es útil para evaluar la fuerza y dirección de la relación entre dos variables.

Es importante realizar un análisis de correlación para comprender la relación entre las


variables y determinar si existe una asociación lineal entre ellas. Si no hay una asociación
lineal entre las variables, entonces un modelo lineal simple puede no ser el mejor enfoque
para modelar los datos.
Coeficiente de Correlación de Pearson

r 1  Asociación lineal perfecta positiva yi xi .


r  1  Asociación lineal perfecta negativa yi xi .
r0  Asociación lineal  - yi xi .
El análisis de correlación también es útil para identificar posibles relaciones causales
entre variables, aunque es importante tener en cuenta que la correlación no implica
causalidad.

11. ¿Es lo mismo estimar un modelo lineal simple con o sin ordenada al origen?

R. Un modelo lineal simple con ordenada al origen se puede expresar matemáticamente


como:

y = β₀ + β₁x + u

donde y es la variable dependiente (o respuesta), x es la variable independiente (o


predictor), β₀ es el intercepto (o constante) y β₁ es la pendiente de la línea recta que
relaciona x e y. ε representa el error aleatorio del modelo.

Por otro lado, un modelo lineal simple sin ordenada al origen se puede expresar como:

y = β₁x + u

en este caso, no hay intercepto en la ecuación y solo se tiene una pendiente que relaciona
x e y.

Al estimar estos dos modelos, se obtendrán diferentes valores para los coeficientes β₀ y
β₁, lo que dará lugar a diferentes ecuaciones para predecir los valores de y a partir de los
valores de x. En el modelo con ordenada al origen, el intercepto β₀ representa el valor de
y cuando x es igual a cero, mientras que en el modelo sin ordenada al origen, no se tiene
en cuenta este valor.

12. ¿Qué ocurre con los estimadores cuando la variable endógena se divide entre
1000000?

R. Si se divide la variable endógena entre 1000000, entonces los valores de los


estimadores se verán afectados en función de la magnitud de los coeficientes de las
variables explicativas, lo que a su vez puede tener implicaciones para la interpretación
del modelo y para la capacidad predictiva del mismo.
En general, la división de la variable endógena por un factor constante no afecta al signo
de los coeficientes de las variables explicativas, pero sí altera su magnitud. En particular,
los coeficientes de las variables explicativas se reducirán en una proporción equivalente
a la inversa del factor de división.

Es decir, el nuevo coeficiente será mucho más pequeño que el original. Esto significa que
la contribución de la variable explicativa en la explicación de la variable endógena será
menor en la nueva especificación del modelo.

13. Para un modelo lineal simple en el que la variable predeterminada es el tiempo:


¿Cómo se interpreta el coeficiente beta?

R. Coeficiente Beta es un estadístico que nos indica la correlación que hay entre el
comportamiento de una acción y/o sector y otro índice representativo del valor.

Puede interpretarse en respuesta a los cambios medios en una variable que para una
unidad de cambio en la variable predictor mientras se mantienen constantes los otros
predictores en el modelo (el estimador β es función lineal de Y).

Si el tiempo se mide en unidades de años y la variable de respuesta es el ingreso anual,


por ejemplo, el coeficiente beta indicaría el cambio esperado en el ingreso anual por cada
año adicional transcurrido.

En general, si el coeficiente beta es positivo, esto indica que la variable de respuesta


aumenta a medida que el tiempo avanza. Si el coeficiente beta es negativo, esto indica
que la variable de respuesta disminuye a medida que el tiempo avanza.

14. ¿Cuáles son los motivos para estandarizar las variables en el MLS?

R. La estandarización se usa por varios motivos.

 Comparabilidad: Cuando se estandarizan las variables, se eliminan las


diferencias en la escala de medida entre ellas, lo que permite comparar los
coeficientes de las variables de forma más directa. Esto es especialmente
importante cuando se comparan variables que se miden en diferentes escalas o
unidades, como por ejemplo cuando se comparan la altura (en centímetros) y el
peso (en kilogramos).
 Interpretación: La estandarización de las variables también puede facilitar la
interpretación de los coeficientes. Cuando las variables están estandarizadas, los
coeficientes de regresión indican el cambio en la variable de respuesta
correspondiente a un cambio de una desviación estándar en la variable
explicativa. Esto hace que los coeficientes sean más fáciles de interpretar y
comparar.
 Supuestos del modelo: En algunos casos, la estandarización de las variables
puede ayudar a cumplir los supuestos del modelo. Por ejemplo, cuando las
variables tienen diferentes varianzas, la estandarización puede ayudar a reducir
la influencia de las variables con varianzas altas en la estimación del modelo..

15. Plantee un MLS en el que incorpore una variable dicotómica tal que permita estimar
la diferencia de ahorro entre población rural y urbana.

R. Yi = ∝ + βxi + Ui

Y = Ahorro por año

X = Población. 1 Urbana. 0 Rural.

Aplicar el ahorro en función a la población.

¿Existe diferencia de ahorro dependiendo a la población?

También podría gustarte