Capitulo 10
Análisis de regresión: método estadístico
que permite explicar el comportamiento de una variable cuantitativa, a partir
del comportamiento de otra u otras variables que puedan estar relacionadas,
estableciendo la expresión funcional del modelo matemático que describa dicho
comportamiento.
Variable explicada: aquella variable
cuantitativa cuyo comportamiento se desea describir a partir del comportamiento
de otra y otras variables.
Variables
explicativas: aquellas
variables que explican el comportamiento de la variable explicada.
Modelo estadístico de
regresión: Fórmula:
Función de regresión
f(x1,x2..): modelo matemático que interviene en el
modelo estadístico de regresión.
Residuo aleatorio u: variable aleatoria
que forma parte del modelo estadístico de regresión.
Supuestos
de la regresión:
para cada k-erna posible de los valores de las variables explicativas, se
supone que se cumple:
·
La
variable aleatoria residual tiene distribución normal.
·
La
esperanza matemática de la variable aleatoria residual es cero.
·
La
varianza de la variable aleatoria residual se mantiene constante.
·
Las
variables aleatorias residuales para dos k-erna, son independientes. La
covarianza es cero.
·
La
varianza aleatoria residual es independiente de cada una de las variables
explicativas.
Análisis
de regresión simple:
análisis que se realiza cuando a cada unidad experimental de un determinado
universo se le miden sólo dos variables, una variable explicativa y una
variable explicada.
Diagrama
de puntos o de dispersión: representación grafica de los pares ordenados de los
valores de las variables que intervienen en el análisis de regresión simple.
Modelo
de regresión lineal simple, polinómico de primer grado: modelo de regresión
que se forma cuando la función de regresión es una función afin, una recta.
Fórmula:
Un valor individual de la variable residual
es la diferencia entre un valor de la variable explicada y el valor de la recta
de regresión para un valor dado de la variable explicada.
Fórmula:
Coeficiente
de regresión b1: pendiente de la recta de regresión, es el cociente entre
la covarianza entre las dos variables y la varianza de la variable explicativa. Fórmula:
b0: es la ordenada al origen. Fórmula:
Variación
individual y conjunta
û
Suma de cuadrados de x -
SCx: de
las desviaciones de variable x con respecto a la media aritmética.
û
Suma de cuadrados de y -
SCy: de
las desviaciones de variable y con respecto a la media aritmética.
û
Suma del producto – Sxy: de las desviaciones
de cada variable con respecto a sus medias aritméticas.
Estimadores
û
Suma del cuadrado de los residuos – Scres
û
Estimador de la ordenada al origen
û
Estimador de la pendiente
Desviación
total:
diferencia entre un valor individual de Y y el promedio. Fórmula:
Desviación
explicada de la regresión: diferencia entre el valor de la recta de regresión
estimada, correspondiente al valor x0 y el promedio de la variable
Y. Fórmula:
Desviación
residual: diferencia
entre un valor individual de Y el valor de la recta de regresión estimada correspondiente
al valor x0
û
Suma de cuadrados total – SCt: de las desviaciones
de la variable explicada con respecto a la media aritmética. Es igual a la suma
de la suma de cuadrados explicada y la suma de cuadrados residual.
û
Suma de cuadrados explicada por la regresión – SCexp: de las desviaciones
de los valores de la recta de regresión muestral con respecto a su media
aritmética.
û
Suma de cuadrados residual – SCres: de las desviaciones
entre la variable explicada y los correspondientes valores de la recta de
regresión muestral.
Coeficiente
de determinación: R2: cociente entre la suma de cuadrados explicada
y la suma de cuadrado total. Fórmula:
Varianza
residual muestral: cociente
entre la suma de cuadrados residual y sus grados de libertad. Fórmula:
Distribución
del estimador de la ordenada al origen de la recta de regresión
Distribución
del estimador de la pendiente de la recta de regresión
Distribución
del estimador de la predicción de un valor de la variable explicada para un
valor dado de la variable explicativa
Intervalos
de confianza para la ordenada al origen de la recta de regresión
Intervalos
de confianza para la pendiente de la recta de regresión
Intervalo
de confianza para la predicción de un valor de la variable explicada para un
valor dado de la variable explicativa
Estadígrafo
de prueba para ordenada al origen
Estadígrafo
de prueba para la pendiente
Análisis
de correlación: método
estadístico que permite medir el grado de asociación entre las variables.
Análisis
de correlación lineal simple: se lleva a cabo cuando la función de
regresión que explica el comportamiento conjunto de las variables es la función
afin, o sea una recta.
Coeficiente
de correlación lineal p: es un número que está entre menos uno y uno. Surge del
cociente entre la covarianza entre las variables y el producto de los desvíos
estándares de cada una de ellas.
Coeficiente
de correlación lineal muestral r: es el estimador del parámetro p
Fórmula
del estadígrado si el coeficiente es igual a cero
Fórmula
del estadígrado si el coeficiente es distinto a cero
Prueba
de significación: consiste
en probar si el coeficiente de correlación lineal poblacional es cero o no es
cero. Las hipótesis son igual a cero o distinto de cero. Si s rechaza la
hipótesis nula entonces el coeficiente es significativo.
Fórmula
del estadígrafo:
0 comentarios:
Publicar un comentario