Esta página cita fontes, mas estas não cobrem todo o conteúdo.Julho de 2019) Em estatística ou econometria, regressão linear é uma equação para se estimar a condicional (valor esperado) de uma variável y, dados os valores de algumas outras variáveis x.[1][2] A regressão, em geral, tem como objectivo tratar de um valor que não se consegue estimar inicialmente. A regressão linear é chamada "linear" porque se considera que a relação da resposta às variáveis é uma função linear de alguns parâmetros. Os modelos de regressão que não são uma função linear dos parâmetros se chamam modelos de regressão não-linear. Sendo uma das primeiras formas de análise regressiva a ser estudada rigorosamente, é usada extensamente em aplicações práticas. Isso acontece porque modelos que dependem de forma linear dos seus parâmetros desconhecidos, são mais fáceis de ajustar que os modelos não-lineares aos seus parâmetros, e porque as propriedades estatísticas dos estimadores resultantes são fáceis de determinar.[3] Modelos de regressão linear são frequentemente ajustados usando a abordagem dos mínimos quadrados, mas que também pode ser montada de outras maneiras, tal como minimizando a "falta de ajuste" em alguma outra norma (com menos desvios absolutos de regressão), ou através da minimização de uma penalização da versão dos mínimos quadrados. Por outro lado, a abordagem de mínimos quadrados pode ser utilizado para ajustar a modelos que não são modelos lineares. Assim, embora os termos "mínimos quadrados" e "modelo linear" estejam intimamente ligados, eles não são sinônimos. [carece de fontes] Para se estimar o valor esperado, usa-se de uma equação, que determina a relação entre ambas as variáveis. y i = α + β X i + ε i {\displaystyle y_{i}=\alpha +\beta \,X_{i}+\varepsilon _{i}} , onde: y i {\displaystyle y_{i}} : Variável explicada (dependente); representa o que o modelo tentará prever α {\displaystyle \alpha } : É uma constante, que representa a interceptação da reta com o eixo vertical; β {\displaystyle \beta } : Representa a inclinação (coeficiente angular) em relação à variável explicativa; X i {\displaystyle X_{i}} : Variável explicativa (independente); ε i {\displaystyle \varepsilon _{i}} : Representa todos os factores residuais mais os possíveis erros de medição. O seu comportamento é aleatório, devido à natureza dos factores que encerra. Para que essa fórmula possa ser aplicada, os erros devem satisfazer determinadas hipóteses, que são: terem distribuição normal, com a mesma variância σ 2 {\displaystyle \sigma ^{2}\,} , independentes e independentes da variável explicativa X, ou seja, i.i.d. (independentes e identicamente distribuídas). Notação MatricialA equação acima pode ser reescrita em forma de matriz: y = X β + ε {\displaystyle \mathbf {y} =\mathbf {X} {\boldsymbol {\beta }}+{\boldsymbol {\varepsilon }}} Onde y {\displaystyle \mathbf {y} } é uma matriz de n × 1 {\displaystyle n\times 1} observações, X {\displaystyle \mathbf {X} } é uma matriz de tamanho n × p + 1 {\displaystyle n\times p+1} (sendo a primeira coluna com valores sempre = 1, representando a constante α {\displaystyle \alpha } , e p {\displaystyle p} é a quantidade de variáveis explicativas), β {\displaystyle {\boldsymbol {\beta }}} é uma matriz de p + 1 × 1 {\displaystyle p+1\times 1} variáveis explicativas (sendo que β 0 {\displaystyle \beta _{0}} representa a constante α {\displaystyle \alpha } ) e ε {\displaystyle {\boldsymbol {\varepsilon }}} é uma matriz de n × 1 {\displaystyle n\times 1} de resíduos. y = [ y 1 y 2 ⋮ y n ] , X = [ 1 X 11 X 12 ⋯ X 1 p 1 X 21 X 22 ⋯ X 2 p ⋮ ⋮ ⋱ ⋮ 1 X n 1 X n 2 ⋯ X n p ] , β = [ β 0 β 1 β 2 ⋮ β p ] , ε = [ ε 1 ε 2 ⋮ ε n ] {\displaystyle \mathbf {y} ={\begin{bmatrix}y_{1}\\y_{2}\\\vdots \\y_{n}\end{bmatrix}},\qquad \mathbf {X} ={\begin{bmatrix}1&X_{11}&X_{12}&\cdots &X_{1p}\\1&X_{21}&X_{22}&\cdots &X_{2p}\\\vdots &\vdots &\ddots &\vdots \\1&X_{n1}&X_{n2}&\cdots &X_{np}\end{bmatrix}},\qquad {\boldsymbol {\beta }}={\begin{bmatrix}\beta _{0}\\\beta _{1}\\\beta _{2}\\\vdots \\\beta _{p}\end{bmatrix}},\qquad {\boldsymbol {\varepsilon }}={\begin{bmatrix}\varepsilon _{1}\\\varepsilon _{2}\\\vdots \\\varepsilon _{n}\end{bmatrix}}}Estimativa dos fatores α {\displaystyle \alpha } e β {\displaystyle \beta }A técnica mais usual para estimativa dos parâmetros α {\displaystyle \alpha } e β {\displaystyle \beta } é o Método dos mínimos quadrados, mas também podem ser usados:
Interpretação dos parâmetros do modeloO chamado intercepto ou coeficiente linear ( β 0 {\displaystyle \beta _{0}} ) é utilizado para representar o ponto em que a reta da regressão corta o eixo Y quando X = 0. Já o parâmetro representa a inclinação da reta ( β 1 {\displaystyle \beta _{1}} ) é denominado como coeficiente de regressão ou coeficiente angular. A interpretação geométrica dos coeficientes podem ser vistos na imagem abaixo. Uma desvantagem é que o modelo de regressão linear simples não acomoda impactos de erros experimentais (variação de matéria prima), de erros de medida, entre outras inúmeras fontes de variabilidade
E ( Y i ) = E ( β 0 + β 1 x i + ϵ i ) = β 0 + β 1 x i + E ( ϵ i ) = β 0 + β 1 x i {\displaystyle E(Y_{i})=E(\beta _{0}+\beta _{1}x_{i}+\epsilon _{i})=\beta _{0}+\beta _{1}x_{i}+E(\epsilon _{i})=\beta _{0}+\beta _{1}x_{i}} Dado isto, temos que a regressão do modelo acima e dado por: E [ Y | x ] = β 0 + β 1 x {\displaystyle E[Y|x]=\beta _{0}+\beta _{1}x}
V a r ( ϵ i ) = E ( ϵ i 2 ) − [ E ( ϵ i ) 2 ] = E ( ϵ i 2 ) = σ 2 {\displaystyle Var(\epsilon _{i})=E(\epsilon _{i}^{2})-[E(\epsilon _{i})^{2}]=E(\epsilon _{i}^{2})=\sigma ^{2}} Assim temos que : V a r ( Y i ) = E [ Y i − E ( Y i | x i ) 2 ] = E ( ϵ i 2 ) = σ 2 {\displaystyle Var(Y_{i})=E[Y_{i}-E(Y_{i}|x_{i})^{2}]=E(\epsilon _{i}^{2})=\sigma ^{2}} Quando deparamos com casos como este, dizemos que o erro é homocedástico, ou seja, a variância é constante.
C o v ( ϵ i , ϵ j ) = E ( ϵ i ϵ j ) − E ( ϵ i ) E ( ϵ j ) = E ( ϵ i , ϵ j ) = 0 {\displaystyle Cov(\epsilon _{i},\epsilon _{j})=E(\epsilon _{i}\epsilon _{j})-E(\epsilon _{i})E(\epsilon _{j})=E(\epsilon _{i},\epsilon _{j})=0} i ≠ j {\displaystyle i\neq j}
|