miércoles, 5 de marzo de 2014



Regresión lineal


Descripción: Artículo buenoPara otros usos de este término, véase Función lineal (desambiguación).

Ejemplo de una regresión lineal con una variable dependiente y una variable independiente.

En estadística la regresión lineal o ajuste lineal es un método matemático que modela la relación entre una variable dependiente Y, las variables independientes Xi y un término aleatorio ε. Este modelo puede ser expresado como:

Descripción: Y_t = \beta_0  + \beta_1 X_1 + \beta_2 X_2 +  \cdots +\beta_p X_p + \varepsilon

*  : Variable dependiente, explicada o regresando.

Descripción: X_1, X_2, \cdots, X_p : Variables explicativas, independientes o regresores.

Descripción: \beta_0,\beta_1,\beta_2,\cdots ,\beta_p : parámetros, miden la influencia que las variables explicativas tienen sobre el regresando.

donde Descripción: \beta_0es la intersección o término "constante", las Descripción: \beta_i \ (i > 0)son los parámetros respectivos a cada variable independiente, y Descripción: pes el número de parámetros independientes a tener en cuenta en la regresión. La regresión lineal puede ser contrastada con la regresión no lineal.

El modelo de regresión lineal[editar]


El modelo lineal relaciona la variable dependiente Y con K variables explicativas Descripción:  X_k (k = 1,...K), o cualquier transformación de éstas, que generan un hiperplano de parámetros Descripción:  \beta_k desconocidos:

(2)Descripción:  Y = \sum \beta_k X_k + \varepsilon

donde Descripción:  \varepsilon es la perturbación aleatoria que recoge todos aquellos factores de la realidad no controlables u observables y que por tanto se asocian con el azar, y es la que confiere al modelo su carácter estocástico. En el caso más sencillo, con una sola variable explicativa, el hiperplano es una recta:

(3)Descripción:  Y = \beta_1 + \beta_2 X_2 + \varepsilon

El problema de la regresión consiste en elegir unos valores determinados para los parámetros desconocidos Descripción: \beta_k, de modo que la ecuación quede completamente especificada. Para ello se necesita un conjunto de observaciones. En una observación cualquiera i-ésima (i= 1,... I) se registra el comportamiento simultáneo de la variable dependiente y las variables explicativas (las perturbaciones aleatorias se suponen no observables).

(4)Descripción:  Y_i = \sum \beta_k X_{ki} + \varepsilon_i

Los valores escogidos como estimadores de los parámetros, Descripción: \hat{\beta_k}, son los coeficientes de regresión, sin que se pueda garantizar que coinciden con parámetros reales del proceso generador. Por tanto, en

(5)Descripción:  Y_i = \sum \hat{\beta_k} X_{ki} + \hat{\varepsilon_i}

Los valores Descripción:  \hat{\varepsilon_i} son por su parte estimaciones de la perturbación aleatoria o errores.




No hay comentarios.:

Publicar un comentario