Modelo de Correlacion y Regresion Lineal

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 17

MODELO DE REGRESIÓN LINEAL Y

MODELO DE CORRELACIÓN
ÍNDICE

Introducción 1

Antecedentes 2

Desarrollo 3

Modelo de regresión lineal 3

Modelo de Correlación 6
9
Conclusión

Anexos 10

15
Bibliografía
INTRODUCCIÓN

La correlación lineal y la regresión lineal simple son métodos estadísticos que


estudian la relación lineal existente entre dos variables. La correlación cuantifica
como de relacionadas están dos variables, mientras que la regresión lineal consiste
en generar una ecuación (modelo) que, basándose en la relación existente entre
ambas variables, permita predecir el valor de una a partir de la otra. Si el cambio en
una variable está acompañado de un cambio en la otra, entonces se dice que las
variables están correlacionadas.

Los modelos de regresión se usan para estimar "la mejor" relación funcional entre
una variable dependiente y una o varias variables independientes, mientras que los
métodos de correlación se utilizan para medir el grado de asociación de las distintas
variables. A partir de la presente investigación, se pretende mostrar el tema de la
regresión y correlación lineal. Ya que la aplicación de las técnicas estadísticas
contribuye a la optimización de los procesos dentro de diferentes contextos de la
vida cotidiana.

Por esto se presenta a continuación teoría de estos temas de modelos de regresión


lineal y correlación y entender de las múltiples aplicaciones.

1
ANTECEDENTES

Si bien la primera descripción documentada sobre un método de regresión lineal fue


publicada por Legendré en 1805, en el método de mínimos cuadrados con el que
abordaba una versión del teorema de GaussMárkov,fue sir Francis Galton, médico
y primo de Charles Darwin, quien introdujo el término regresión, en su artículo
“Regression towards mediocrity in hereditary stature”, publicado en 1886 en el
Journal of the Anthropological Institute y que menciona de nuevo en su libro Natural
Inheritance, de 1889.

En ese trabajo clásico, Galton centró su descripción en los rasgos físicos de los
descendientes (variable dependiente) a partir de los rasgos de sus padres (variable
independiente).. Galton estudió la altura de los hijos en relación con la altura de sus
padres, y probó que la altura de los hijos, de padres altos, "regresaba" hacia la
media de la altura de la población a lo largo de sucesivas generaciones. Esto es,
hijos de padres demasiado altos tendían a ser en promedio más bajos que sus
padres, e hijos de padres muy bajos tendían a ser en promedio más altos que sus
padres. Así mismo, se realizó un estudio con más de mil registros de grupos
familiares y se encontró la relación que se presenta, que permite estimar la altura
media del hijo a partir de la altura del padre.

A partir de estas observaciones, Galton señaló esta tendencia bajo la “ley de la


regresión universal”. Al final del mismo siglo XIX, Pearson y Yule aportaron muchas
de las nociones modernas acerca de la correlación, que han contribuido al
metalenguaje que nos permite el entendimiento del fenómeno de la dependencia
entre variables.

2
DESARROLLO

La regresión se utiliza para predecir una medida o variable dependiente (también


llamada de desenlace o variable “y”) basándonos en el conocimiento de al menos
otra variable independiente (o variable relacionada con la maniobra o variable “x”) y
un término aleatorio ɛ. El proceso de regresión lineal tiene como primer paso
determinar la pendiente o inclinación de la línea de regresión, cuya representación
algebraica para la regresión lineal simple es de la siguiente forma:

E (Y/X) = a + bx

Donde:

El estimador de “Y” dado un valor de “X” es igual a a + b que multiplica “x”,


asumiendo que la distribución de “Y” para una “x” determinada es normal y, además,
que las varianzas de ambas variables son homogéneas, fenómeno conocido como
homocedasticidad.

La manera más popular de la representación matemática de la regresión lineal


simple es como sigue:

yt = B0 + B1 X1 + ɛ
Donde:

yt = variable explicada o dependiente. La “y”, a diferencia de la “Y”, que es un valor


real dentro de la población, es el indicador de “Y” o el valor estimado a partir de una
muestra que trata de predecir “Y”.

B0 = intercepto, ordenada al origen o constante de regresión, que es la altura a la


que la recta corta al eje “Y”, equivalente al valor de “y” cuando “x” es igual a cero.

B1 = parámetro que mide la influencia que tienen las variables explicativas sobre la
variable explicada o dependiente.

3
En concreto, según el modelo de regresión lineal simple, las puntuaciones de los
sujetos en 2 variables -una de ellas considerada como variable predictora (X) y la
otra como variable de respuesta (Y)- vienen representadas (modeladas) por la
ecuación de una línea recta:

Cuando hay más de una variable explicativa (modelo de regresión lineal múltiple),
se utiliza un subíndice para cada una de ellas, por ejemplo, para el caso de dos
variables explicativas:

Ejemplo de aplicación de un modelo de regresión lineal simple a fin de modelar la


distribución conjunta de las variables “Estrategias de afrontamiento” y “Estrés”. En
este ejemplo concreto, el modelo de regresión se concreta en el ajuste a los datos
de la siguiente ecuación de regresión (también conocida como recta de regresión):

Los dos parámetros de la ecuación de regresión lineal simple, β0 y β1, son conocidos
como el origen (también, constante) y la pendiente del modelo, respectivamente. En
conjunto reciben el nombre de coeficientes de la ecuación de regresión. Si la

4
ecuación de la recta de regresión es obtenida a partir de una muestra, y no de una
población (esto es, los coeficientes de la ecuación de regresión son estadísticos, y
no parámetros), la ecuación se expresa como:

Una vez que sean conocidos los valores de β0 y β1 del modelo de regresión lineal
simple, éste puede ser utilizado como modelo predictivo, esto es, para realizar
predicciones de los valores que tomará la variable de respuesta para determinados
valores de la variable explicativa. Basta para ello con sustituir en la ecuación de
regresión el valor concreto de X que se quiera (Xi). Al hacerlo, se obtendrá el valor
predicho para Y según la ecuación de regresión para aquellos casos que en la
variable X tomen el valor Xi. Este valor es conocido de forma genérica como
puntuación predicha, siendo representado simbólicamente como ' Y i o ˆYi .

En cambio, si pretendemos describir la estructura general de los datos, o


inferir/predecir con la recta de regresión debemos comprobar que se verifican unas
reglas ya establecidas y aceptadas que aseguran que nuestro modelo es bueno.

Con tal fin existen una serie de procedimientos de diagnóstico que nos informaran
sobre la estabilidad e idoneidad del modelo de regresión. Los supuestos que
tendremos que comprobar son

• En el modelo de regresión: linealidad

• En los residuos:

o normalidad

o varianza constante

o valores atípicos

5
Por otro lado, para cada conjunto de datos existen varias rectas con las que
podríamos resumir la tendencia general de los mismos. Necesitamos encontrar la
recta del mejor ajuste, aquella que da lugar a la menor diferencia entre los datos
originales y los estimados por la recta.

MODELO DE CORRELACIÓN

Para estudiar la relación lineal existente entre dos variables continuas es


necesario disponer de parámetros que permitan cuantificar dicha relación. Uno de
estos parámetros es la covarianza, que indica el grado de variación conjunta de
dos variables aleatorias.

La covarianza depende de las escalas en que se miden las variables estudiadas,


por lo tanto, no es comparable entre distintos pares de variables.

La finalidad de la correlación es examinar la dirección y la fuerza de la asociación


entre dos variables cuantitativas. Así conoceremos la intensidad de la relación entre
ellas y si, al aumentar el valor de una variable, aumenta o disminuye el valor de la
otra variable. Para valorar la asociación entre dos variables, la primera aproximación
suele hacerse mediante un diagrama de dispersión.

6
Con la nube de puntos podemos apreciar si existe o no una tendencia entre las dos
variables, pero si queremos cuantificar esta asociación debemos calcular un
coeficiente de correlación.

Hay dos coeficientes de correlación que se usan frecuentemente: el de Pearson


(paramétrico) y el de Spearman (no paramétrico, se utiliza en aquellos casos donde
las variables examinadas no cumplen criterios de normalidad o cuando las variables
son ordinales). El coeficiente de correlación de Pearson evalúa específicamente la
adecuación a la recta lineal que defina la relación entre dos variables cuantitativas.
El coeficiente no paramétrico de Spearman mide cualquier tipo de asociación, no
necesariamente lineal.

Coeficiente de Pearson Coeficiente de Spearman

Si se desea medir o cuantificar el grado de asociación entre dos variables


cuantitativas se debe calcular un coeficiente de correlación.

7
Condiciones de aplicación de la correlación:

• Variables cuantitativas: Ambas variables examinadas han de ser


cuantitativas. Para variables ordinales se puede usar el coeficiente de
Spearman.
• Normalidad: La normalidad de ambas variables es un requisito en el caso del
coeficiente de correlación de Pearson, pero no en el de Spearman.
• Independencia: Las observaciones han de ser independientes, es decir, sólo
hay una observación de cada variable para cada individuo. No tendría
sentido, aplicar la correlación en un estudio que relacionase la ingesta diaria
de sal y la tensión intraocular si se tomaran mediciones en ambos ojos de
cada individuo. En este caso hay dos observaciones por paciente que están.

8
CONLUSIÓN

El análisis de regresión lineal simple, como parte de la inferencia estadística, es


fundamental para determinar relaciones de dependencia lineal entre variables y
establecer su validez con el fin de hacer estimaciones y predicciones dentro de un
intervalo de confianza deseado. Obtener una ecuación de regresión que describe el
comportamiento lineal entre dos variables permite pronosticar valores futuros de la
variable bajo análisis con cierto grado de certeza, lo cual constituye una herramienta
poderosa pues le da al profesional la posibilidad de hacer ajustes en los procesos,
tomar decisiones o establecer políticas.

A pesar de lo importante que resulta ser para cualquier profesional el conocimiento


y uso del análisis de regresión, es una herramienta muy poco aprovechada como lo
demuestran un gran número de trabajos de grado a nivel de posgrado y trabajos de
investigación en los cuales el desarrollo estadístico solo se limita a la parte
descriptiva y no a la inferencial.

Finalmente, fue de gran aprendizaje para nosotras e haber realizado dicha


investigación pues comprendimos mucho mas sobre las múltiples aplicaciones de
la estadística dentro de nuestra carrera, así como aplicaciones en los múltiples
campos de la vida cotidiana.

9
ANEXOS
BIBLIOGRAFIA

Explorable.com (May 2, 2009). La Correlación Estadística. Junio 03, 2020

ESTADISTICA DESCRIPTIVA PARA INGENIERfA AMBIENTAL CON SPSS 123 VIVIANA VARGAS FRANCO

Walpole, R. E. y Myers, R. H. (2007). Probabilidad y estadística para ingenieros (8a ed.). México:
Prentice Hall.

https://www.medigraphic.com/pdfs/imss/im-2013/im136l.pdf

http://ocw.uv.es/ciencias-de-la-salud/pruebas-1/1-3/t_09nuevo.pdf

http://www.ics-aragon.com/cursos/salud-publica/2014/pdf/M2T04.pdf

https://rpubs.com/Joaquin_AR/223351

https://www.incibe-cert.es/blog/correlacion-herramientas-analisis-datos

https://tarwi.lamolina.edu.pe/~fmendiburu/index-filer/academic/metodos1/Regresion.pdf

También podría gustarte