Relaciones entre variables y regresión
El término regresión fue introducido por Galton.
Su trabajo se centraba en la descripción de los rasgos físicos de los descendientes a partir del de sus padres.
ESTUDIO CONJUNTO DE DOS VARIABLES
El objetivo es reconocer a partir de este estudio si hay relación entre dos variables, de que tipo y si es posible predecir el valor de una de ellas en función de la otra.
RELACIÓN INDIRECTA E INVERSA
REGRESIÓN LINEAL SIMPLE: CORRELACIÓN Y DETERMINACIÓN
Se trata de estudiar la asociación lineal entre dos variables cuantitativas
La variable independiente determina el valor de la variable dependiente.
La recta no es un modelo lineal determinista , es probabilístico.
Hay dos tipos de coeficientes:
-Pearson: Es paramétrica, requiere que se siga una distribución normal
-Spearman: No paramétrica, requiere que no siga una distribución normal
•Ecuación de la recta: y = a + bx
•Pendiente de la recta → b
La pendiente de la recta cuanto más negativa sea más decreciente es la recta.
• “b” expresa la cantidad de cambio que se produce en la variable
dependiente por unidad de cambio de la variable independiente
(velocidad de ascenso). “Coeficiente de regresión”
•Punto de intersección con el eje de coordenadas → a
• “a” expresa cuál es el valor de la variable dependiente (eje y)
cuando la independiente vale cero (eje x).
Si x=0 → y= a
1. Calcular a y b
2. Calcular la desviación típica de x, y
3.Calcular el coeficiente de correlación y determinación
Coeficiente de correlación (Pearson y Spearman):
Número adimensional (entre -1 y 1) que mide la fuerza y
el sentido de la relación lineal entre dos variables
Coeficiente de determinación: número adimensional
(entre 0 y 1) que dá idea de la relación entre las variables
relacionadas linealmente. Es r2
Decimos que hay una relación inversa cuando el coeficiente de correlación se acerca a -1 y directa cuando se acerca a 1.
Hay una relación fuerte cuando el coeficiente de determinación está cerca de 1 y débil si está cerca de 0
4.Realizar el diagrama de puntos