TrabalhosGratuitos.com - Trabalhos, Monografias, Artigos, Exames, Resumos de livros, Dissertações
Pesquisar

O Resumo de Microeconomia

Por:   •  28/5/2019  •  Trabalho acadêmico  •  2.067 Palavras (9 Páginas)  •  183 Visualizações

Página 1 de 9

Posto cheio: Não há relação linear perfeita entre as variáveis independentes. Posto (x)=k, ode k é o número de parâmetros. Posto cheio indica ausência de multicolinearidade perfeita entre as variáveis explicativas, esse pressuposto garante que a matriz (x’x) é uma matriz não singular e, portanto, assegura a existência de (x’x)-¹. Caso posto (x)

Linearidade: y=xβ+ε Quando o modelo é não linear, não se pode obter uma solução simples (única). Modelos não lineares nos parâmetros devem ser estimados por métodos não lineares.

Exogeneidade das variáveis independentes: E(ε/x)=0 Em média, a influência do termo de erro para explicar y é nula. Não pode haver omissão de variáveis relevantes. Estimação crível=eficiente e não viesada.

Se for ǂ0 o estimador não é consistente e fica viesado. Continua eficiente.

Homocedasticidade: Var (εi)=δ². Os erros εi são variáveis aleatórias com variância constante. Se houver homocedasticidade, os estimadores perdem eficiência.

Não-autocorrelação: cov (εi/εj)=0

Distribuição normal: Os erros tem distribuição normal.

Ε=/x ~ N (0, δ²/)

Regressão de mínimos quadrados

β e ε >> populacional. B e e >> amostral.

Como chegar ao estimador de MQO:

O vetor de coeficientes de mínimos quadrados minimiza a soma dos resíduos quadrados:

y=xb+e >> (y- xb)²= e² >> ∑ e²=∑(y- xb)²

Resolve e deriva em função de b, o que da a equação normal:

b=(x’x)-¹x’y

>> x’xb=x’y >> x’(xb-y)=0 >> -x’(y-xb)=0 >> -x’e=o >> covariância entre o erro amostral e a variável explicativa. Os resíduos de mínimos quadrados somam zero.

Teorema da regressão particionada:

Na regressão múltipla de MQO de y em x1 e x2, se x1 e x2 forem ortogonais, então os vetores de coeficientes (b1 e b2) separados podem ser obtidos por regress~es separadas de y em x1 sozinho e y em x2 sozinho.

Prova:

Fazer a mesma coisa que o exercício anterior. Pegar a regressão, fazer o somatório dos quadrados, fazer a distributiva e achar as equações normais, que são: x1y=x1’x1b1+x1’x2b2

X2y=x2’x2b2+x2’x1b1

Se o conjuntos de variáveis explicativas forem ortogonais, então: b1=(x1’x1)-¹x1’y e b2=(x2’x2)-¹x2’y

Teorema Frisch-Waugh-Lovell

Se o conjunto de variáveis não forem ortogonais, então a solução é mais complexa.

Na regressão de y em x1 e x2, b2 é o subvetor de coeficientes quando os resíduos da regressão y em x1 (sozinhos) é regredido nos resíduos obtidos quando cada coluna de x2 é regredida em x1

Prova: Começando pelas equações normais

X2y=x2’x2b2+x2’x1b1

Inserir o b1 (obtido no teorema de regressão particionada, considerando que as variáveis não são ortogonais (x2’x1=0 e x1’x2=0)) na equação normal em função de x2:

B1=(x1’x1)-¹x1’(y-x2b2)

Vai achar b2

B2=(x2’m1x2)-¹(x2’m1y)

Como m1 é simétrico e idempotente:

B2=(x2*’x2*)-¹(x2*’y*)

Teorema Regressão Ortogonal:

Se a regressão múltipla de y em x contiver um termo constante e as variáveis da regressão não estiverem correlacionadas, então os estimadores da regressão múltipla serão os mesmos que os estimadores da regressão simples individuais de y em um constante e em cada variável, por sua vez.

Teorema: Mudança na soma dos quadrados quando uma variável é adicionada na regressão

Se e’e é a soma dos quadrads de resíduos quando y é regredido em x e u’u é a soma dos resíduos quadrados quando y é regredido em  e z, então:

U’u= e’e- c²(z*’z*) <= e’e; onde c é o coeficiente de z na regressão de y em x e z e z*=MZ é o vetor de resíduos quando z é regredido em x.

Prova:

Y= xd+zc+u >> u=y-xd-zc

A menos que x’z=0, d não será igual a b=(x’x)-¹x’y. Além disso, a menos que c=0, u não será igual a e=y-xd. Do corolário de coeficientes de regressão individual,    c=(z*’z*)-¹(z*y*), das equações normais também temos que:

D=(x’x)-¹x’(y-zc)=b-(x’x)-¹x’zc

Inserindo d em u, da:

U=y-xb+x(x’x)-¹x’zc-zc >> =e-mzc=e-z*c

Fazendo a soma do quadrados dos resíduos, isso da o resultado:

U’u=e’e-c²(z*’z*)

Teorema das variáveis transformadas

Na regressão linear de y em z=xp, onde p é uma matriz não singular que transforma a coluna de x, o coeficiente será igual a p-¹b =, onde b é o coeficiente da regressão de y em x, e o r² será o mesmo.

Prova:

D=(z’z)-¹z’y = ((xp)’xp)-¹(xp)’y = (p’x’xp)-¹p’x’y =                      p-¹(x’x)-¹p’-¹p’x’y = p-¹(x’x)-¹x’y = p-¹b

O vetor de resíduos é u=y-z(p-¹b) >> u=y-xpp-¹b >> u=y-xb=e

Desde que os resíduos são idênticos, o numerados de 1-r² é o mesmo, e o denominador é inalterado. Isso estabelece o resultado.

Teorema: Erro quadrado médio mínimo

Se o mecanismo gerador de dados gerando (xiyi)i=1,..., n é tal que a lei dos grandes números se aplica aos estimadores em 1/n ∑xiyi = (1/n ∑xixi’)b das matrizes em ExEy(x,y)=Ex(xx’)β, então o estimador linear do erro quadrado médio mínimo de yi é estimado pela linha de regressão de mínimos quadrados

Prova: Erro quadrado médio mínimo

ExEε(x/ε)=ExEy(x/(y-xβ))=ExEy(x,y)=Ex(xx’)β

Aplicando o somatório e dividindo por n:

1/n ∑xiyi = (1/n ∑xixi’)b

A expectativa do erro quadrado desse preditor é:

MSE=ExEy(y-x’ϒ)²

MSE= Ey,x(y-E(y/x))²+Ey,x(E(y/x)-x’ϒ)²

Otimizando com relação a ϒ:

EyEx(xE(y/x))=EyEx(xx’) ϒ

Portanto, a condição necessária para encontrar o preditor de mínimos de MSE é:

ExEy(xy)=Ex(xx’) ϒ

Estimador não viesado

Provando que o estimador de MQO é não viessado se os pressuposto básicos são satisfeitos.

...

Baixar como (para membros premium)  txt (16.5 Kb)   pdf (256.5 Kb)   docx (1.1 Mb)  
Continuar por mais 8 páginas »
Disponível apenas no TrabalhosGratuitos.com