Brincando com o R (novamente, o Bovespa)

bovespao

É, os comandos eu já coloquei aqui. Vou repetir.

library(quantmod)
getSymbols("BVMF3.SA",src="yahoo")
chartSeries(BVMF3.SA, subset='last 48 months')
addBBands()

Não é fácil? Eu sei, eu sei, você tem que ir lá e pesquisar para descobrir o que mais pode fazer com os dados. É, este R vai desbancar muito ‘pseudo-analista’ do mercado financeiro…

Momento R do Dia – Novamente a função consumo

Aqueles que chegaram aqui agora, no meio da discussão, recomendo colocar “função consumo” na caixa de buscas no alto da página e pegar as duas últimas rodadas.

No script abaixo encontra-se o exercício feito em sala de aula hoje (Econometria II) para a função consumo brasileira. Dois alunos, Rafael e Isadora, conseguiram, após o final da aula, acertar os dados originais (deflacionar e calcular valores per capita). Descobriram que a atenção deve estar sempre alerta desde o início. Afinal, se o PIB de 2012 está com o deflator na base de 2012, seu valor real deve ser igual ao nominal e vamos agradecer aqui aos professores de Macroeconomia do início do curso (sem querer cometer injustiças, não citarei nomes).

Dito isto, o exercício proposto era o de estimar a função consumo coma renda permanente seguindo uma lei dinâmica no tempo conhecida como “mecanismo de expectativas adaptativas”. Falei delas nos posts anteriores e, portanto, não preciso voltar ao tema.

A diferença em relação ao que fiz aqui antes é apenas a extensão do período de tempo. No script que se segue, algumas novidades foram introduzidas (alunos de semestres anteriores não viram alguns itens simples).

Primeiramente, ensino a obter o valor de qualquer item do sumário dos resultados. Em segundo lugar, dou a dica para o cálculo do nível de significância para algumas distribuições (no caso, a Normal padronizada) e, terceiro, como alunos da faculdade já não choram e esperneiam por conta de um código de LaTex, dou também a dica do pacote stargazer.

É bom lembrar, contudo, que sem praticar em casa, nada disto adiantará. Você, que não é meu aluno em sala, se praticar, vai aprender mais do que o sujeito que vai até minha sala de aula, mas não treina em casa. Simples assim. Volto após o código.


# http://sites.google.com/site/shikidatimeseries.html (site da materia)
# Blog do professor: http://gustibusgustibus.wordpress.com
# Nepom: http://nepom.wordpress.com
# Agora, ao que interessa.
# previamente, instale os pacotes
# install.packages("lmtest")
# install.packages("sandwich")
# Etc. Ou faça...

# install.packages(c("lmtest", "sandwich","stargazer", "dynlm"))

# script aula 19/08

dados<-read.table("C:/Users/cdshi_000/Documents/Meus Documentos/Meus Documentos/cursos/Econometria ii/funcao_consumo_anual.csv", 
                  header=TRUE, sep=",", na.strings="NA", dec=".", strip.white=TRUE)

head(dados)
tail(dados)

series <- ts(dados, start=c(1947), freq=1)

head(series)
tail(series)

consumo<-series[,8]
pib<-series[,7]

plot(consumo, main="Consumo per capita em R$ de 2012")
plot(pib, main="PIB per capita em R$ de 2012")

consumolag=lag(consumo,-1)
piblag=lag(pib,-1)

cons=ts.intersect(consumo, consumolag)
pib0 =ts.intersect(pib, piblag)

pib0

f1<-(lm(cons[,1]~pib0[,1] + cons[,2]))

# f2<-(lm(cons[,1]~pib0[,1] + cons[,2]-1))

summary(f1)

library(sandwich)
library(lmtest)

f11<-coeftest(f1, vcov=NeweyWest)

f11

# Sugestão: se você tem o Lyx instalado (um Latex freeware)
# abra um novo arquivo (ctrl+N) e, em seguida, abra uma janela para codigos
# Ctrl+L
# Depois copie e cole o resultado do stargazer, retirando o que deve ser 
# retirado (consulte o Google, o monitor, etc)

library(stargazer)
stargazer(f1,f11)

# Agora voltamos ao que interessa. 
# Vejamos a defasagem media e a mediana

lambda<- coef(summary(f1))["cons[, 2]","Estimate"]
lambda
def_mediana<- (-log(2)/log(lambda))
def_mediana

def_media <-(lambda/(1-lambda))
def_media

# Outra forma de fazer esta regressao
# sem necessitar de criar a interseção de colunas
# com a variável e sua(s) defasagem(ns): o pacote dynlm


library(dynlm)

# não é preciso criar defasagens e a matriz x'x

f1novo <-(dynlm(consumo~pib + L(consumo,1)))

summary(f1novo)

# para comparar: mesmíssimos resultados

summary(f1)

# Seguindo o livro, 
# vamos para o metodo das variáveis instrumentais.
# Sugestao de Liviatan é usar Xt-1 como instrumento de Yt-1
# após o | substituir Yt-1 por seu instrumento e repetir os
# outros regressores

library("AER")

inst<- ivreg(cons[,1]~pib0[,1]+cons[,2]|pib0[,1]+pib0[,2])

summary(inst)

lambda1<- coef(summary(inst))["cons[, 2]","Estimate"]
lambda1
def_mediana1<- (-log(2)/log(lambda1))
def_mediana1

def_media1 <-(lambda1/(1-lambda1))
def_media1

# reparou como o modelo deu problema? O coeficiente do consumo, agora, não 
# foi significativo (e seu sinal?)

# autocorrelacao (teste h (não é um bom teste, mas aprenda como fazê-lo))

dwtest(inst)

rho<-(1-(1.2526/2))
valfa2 <-((coef(summary(inst))["cons[, 2]", "Std. Error"]))^2
valfa2

h<-rho*(sqrt(inst$n/(1-inst$n*valfa2)))

h

# para 5%, normal padronizada...
pnorm(1.645)

# logo, para h:

pnorm(h)

# 1. claro, outra opção é o teste BG (fica como dever de casa: dica lmtest)
# 2. no setor de fotocópias: pegue o material para R do semestre passado.
# 3. repita os passos feitos aqui.

Bem, pessoal, é fácil fazer isto tudo e a sugestão de dever de casa é muito tranquila. Em caso de dúvidas, lembre-se que você pode sempre usar comandos simples como “?lm” (para saber mais sobre o comando lm) ou “??lm” (veja no que dá). Obviamente, sem executar a linha, nada acontecerá.

Outra opção é fazer a busca pelos manuais dos pacotes. Digamos, por exemplo, que eu queira saber mais sobre o pacote “lmtest”. Uma rápida busca nos levará a este endereço. Nele você encontrará não apenas o manual (cuja linguagem é padronizada) como também as chamadas vignettes (nem todo pacote a(s) tem(têm), ok?) que costumam ser úteis.

Você aprende por repetição e replicar exemplos destes manuais é sempre uma boa idéia. Repare que muitos deles já vêm com bases de dados (você não precisa importá-las) que são usados nos exemplos do manual do pacote e, bem, você entendeu.

Outra dica é procurar, neste blog (e, ocasionalmente, no do Nepom) pelos chamados “Momento R do Dia” (procure!). São dicas que dou sobre os mais diversos tópicos de R. Você tem que pesquisar e descobrir se há alguma dica útil. Claro, há sempre o StackOverflow.

É isto, pessoal.

pibbr_aha

Matriz Sanduíche em R – Dica R do Dia (a segunda de hoje)

O mais bacana deste texto é saber que um brasileiro tem contribuições à literatura. Caso você não se lembre do tópico, volte ao seu primeiro curso de Econometria. Certamente seu professor falou das matrizes sanduíche (embora possa ter falado sobre o tópico com outros nomes…).

Dica R do Dia – head() e tail()

Muitas vezes, após importar uma base de dados extensa no R, queremos fazer uma checagem inicial. Por que? Porque por mais que a gente pense que preparou o arquivo inicial (eu uso muito arquivos .csv), sempre pode haver um erro.

Eu sempre uso o comando head para ilustrar como eu checo os meus dados. Eis aí o exemplo.

> head(pib)
year production_per_person_ml GDP_capita_1990
1 1925 2416 1885.16
2 1926 2432 1871.58
3 1927 2365 1869.77
4 1928 2590 1992.37
5 1929 2588 2025.73
6 1930 2313 1850.39

Entretanto, você pode ficar em dúvida quanto ao final da base pois muita gente esquece de apagar alguma linha explicativa lá no arquivo salvo em .csv. Bem, eis o comando necessário.

> tail(pib, n=3)

year production_per_person_ml GDP_capita_1990
30 1954 4507 2581.87
31 1955 4567 2770.75
32 1956 5123 2947.87

Dica do dia boa, não?

Regressões espúrias: produção de cerveja e pib no Japão

Vejam que bela correlação positiva.

japaocerveja

Viu os eixos? A base de dados é de 1925-1956, ou seja, são dados no tempo. Dados anuais. O PIB per capita, claro, vem da base do falecido Maddison. Já a produção per capita de cerveja no Japão (em mililitros), sim, isso mesmo, vem do meu recém-comprado Brewed in Japan de Jeffrey Alexander, que promete ser uma fonte de leitura sobre esta deliciosa estrutura de mercado das mais interessantes (para quem curte uma boa cerveja).

A regressão dá um belo ajuste (mesmo com a correção de Newey-West). Abaixo, a saída sem a correção e, em seguida, com a mesma.

Sem Newey-West:

Coefficients:
Estimate   Std. Error     t value   Pr(>|t|)
(Intercept)     -5.1943   1.2647      -4.107     0.000271 ***
log(pib_pc)    1.7036   0.1648       10.335    1.45e-11 ***

Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 0.1979 on 31 degrees of freedom
Multiple R-squared: 0.7751, Adjusted R-squared: 0.7678
F-statistic: 106.8 on 1 and 31 DF, p-value: 1.451e-11

Com Newey-West:

z test of coefficients:

Estimate     Std. Error     z value    Pr(>|z|)
(Intercept)     -5.19427     3.04829      -1.7040    0.08838 .
log(pib_pc)    1.70360      0.39997      4.2593     2.051e-05 ***

Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Pode ser uma regressão espúria? Eu diria que sim, embora não seja tão fácil dizer isto dada a pequena extensão da base de dados. O teste, claro, passa pela análise do resíduo da regressão. De qualquer forma, é o sonho de todo estudante de Economia, não? Sem falar na elasticidade-renda de 1.7 (embora a variável seja produção per capita, não consumo…).

A crise de 2008 contagiou a América Latina? + Momento R do Dia: como importar os dados do Bovespa para o R?

Ainda citando o último número do International Advances in Economic Research, eis um artigo sobre a crise de 2008 e a América Latina.

Spillover Effects of the 2008 Financial Crisis in Latin America Stock Markets
Jae-Kwang Hwang

Abstract

This paper examines the transmission of the 2008 US financial crisis to four Latin American stock markets using daily stock returns from 2006 to 2010, analyzing before, during and after the 2008 financial crisis. The empirical evidence presents a financial contagion by showing persistently higher and more volatile pair-wise conditional correlations during the crisis period. This indicates there are structural changes in mean and volatility of the correlation coefficients due to the 2008 financial crisis in Latin American markets. The results here could be useful in international portfolio diversification decision-making in Latin American region. In addition, the predicting the volatility in different markets could be a useful input for reducing financial instability in crisis episodes to policy makers.

Mudança importante ou não? Em outras palavras, a crise de 2008 teve algum impacto nos mercados financeiros da selva, digo, América Latina? Para responder a esta pergunta, o autor analisa o mercado de ações e, aí, obviamente, faz uso da vasta caixa de ferramentas disponível para Finanças.

Como se pode ler no artigo – estou quase fazendo uma tradução livre – os países analisados foram a Argentina, o Brasil, o Chile e o México, com dados diários de Jan/2006 a Dez/2010. O autor se faz duas perguntas: primeiro, quer saber se houve contágio e, segundo, quando o contágio ocorreu e quanto tempo durou. A fonte de dados foi esta. Aliás, é uma fonte de dados que você importa para o R em instantes usando alguns dos pacotes mais comuns (uma dica é esta).

Agentes são racionais? Na página 320, em meio à análise, lê-se:

Thus, the subprime crisis in the U.S. did not change pair-wise correlations of the US and Latin American stock markets. However, as time passes and investors begin to follow more reputable and sophisticated investors. At that moment, any available public news is interpreted as information for the entire region, then leading to more uniform behavior and resulting in higher correlations among the markets.

Por definição, agentes não-racionais não maximizariam, né? Mas, como esperado, não é o que parece ter ocorrido.

Ah sim, para o nosso Momento R do Dia, a dica de como obter os dados do Bovespa diretamente do Yahoo Finance. O pacote usado é o Quantmod.

#install.packages("quatmod")

library(quantmod)

getSymbols("BVMF3.SA",src="yahoo")
           
chartSeries(BVMF3.SA, subset='last 6 months')
addBBands()

O primeiro comando carrega o já instalado pacote “quantmod” (caso contrário, você terá que instalar primeiro, o que é fácil. Apenas retire o “#” que se encontra antes do comando de instalação). Depois, para cada linha, digite “Ctrl+R” (que é o comando para se executar linhas de comando em R). Ah sim, cada linha é auto-explicativa, não?

Bem o resto é com você. Em caso de dúvidas, veja este help bem didático.

O gráfico obtido é bonito, não é?

chique

 

 

A arte, ah, a arte…(ou seja: a economia da arte!)

2981_02ChmielinskiSannaEis aí um artigo que tem um tema interessante: a economia da arte! Para você ter uma idéia sobre o objetivo específico do estudo, veja o resumo.

An Application of Hedonic Regression to Evaluate Prices
of Polish Paintings
Dorota Witkowska

Abstract

As the global financial crisis hit the world-wide stock markets, investors looked for alternative investments to diversify their portfolios. One of the more attractive alternate investment opportunities has been investment in art. However, in order to consider artworks as investment assets, the performance of the artworks must be evaluated in order to compare it to other financial instruments. Therefore, hedonic art price indexes are constructed for different art markets. The art market in Poland is characterized by a limited scale since it has only been developing since 1989. The aim of our research is evaluation of the hedonic art price indexes for Polish paintings. Hedonic regression models are estimated using data from auctions of paintings that took place in Poland in the years 2007–2010

É ou não é um tema interessante? Afinal, como diz a autora na conclusão, o mercado de arte é uma fonte de segurança para os investidores. Eis aí a função (social?) da arte: servir como opção para que uma pessoa se proteja contra crises e momentos de recessão ou depressão. Para o caso da amostra da autora, que diz respeito à economia polonesa:

Considering the situation of the art market, one may notice that decline of art prices became visible in 2009, while the main index of the Warsaw Stock Exchange—WIG decreased by 51 % (in 2008 in comparison to the previous year). As a result of the financial crisis in 2010, the decline of WIG was by 15 % in comparison to the year 2007. In that period the decrease of art prices was only 12.8 % for the naive index, and 7.2 % for the average hedonic index. This observation justifies the opinion that art can be treated as a safe asset class.

É uma função importante, não?

A Economia do Crime de “Os Originais do Samba”

Outro trecho engraçado da vida de Mussum. Após um aumento da popularidade do grupo, os cachês dos sambistas subiram. Prosperidade, alegria e…

Corumba, logo ele, o veterano e austero empresário e conselheiro do grupo, passou a cobrar o dobro pelas apresentações, mas continuou a repassar o mesmo valor de cachê para os músicos. (…) Não se sabe por quantas vezes ou por quanto tempo a manobra foi feita, mas o modo como o desvio foi descoberto entrou para o folclore do conjunto. Rubão, surdista e tesoureiro oficial dos Originais engatou um romance com a secretária de Corumba e, por métodos pouco ortodoxos de auditoria, fez a moça revelar o esquema do chefe. [Barreto, J. (2014). Mussum forévis: samba, mé e Trapalhões. Ed. Leya, p.185]

Aí está um belo exemplo de problema na relação agente-principal.

Momento Político do Dia

Na bela biografia do Mussum, conta-nos o autor, Juliano Barreto acerca do clássico O Trapalhão no Planeta dos Macacos, que o roteiro não era apenas uma paródia do sucesso original mas…

Os tiranos do outro planeta planejavam um golpe de Estado, castigavam seu povo impedindo o uso de eletrodomésticos e bens de consumo importados e não conseguiam controlar a alta no preço da banana por conta de uma cruel inflação. Mais ou menos como outros primatas faziam em Brasília. (Barreto, J. (2014). Mussum forévis: samba, mé e Trapalhões, p. 180)

O mais irônico é que, não sei se o autor percebeu, parece que a macacada continua em Brasília. Sobre a inflação de 1976? Dá uma olhada no seu livro de economia brasileira. Ou veja este vídeo.

Ah, a inflação da banana…

Love Machine: a música da economia que não decolou nos anos 2000

A mulherada mandava no pedaço…e no otimismo.

Em 09 de Setembro de 1999, o grupo musical pop, Morning Musume, lançou um de seus maiores sucessos: Love Machine (eu não esperava por um verbete em inglês na Wikipedia, mas…). Como era o Japão da época? Bem, a economia tinha acabado de sair da bolha econômica (バブル景気 baburu keiki) e parecia ter um futuro promissor. O otimismo? Veja este trecho da música:

No matter how bad the recession is, love is inflation
It’s indecent be treated this well
My future is bright, I hope to find a job

The world envies
Japan’s future
Let’s fall in love
Dance! Dancin’ all of the night

Ah sim, sempre tem aquele que vai querer encontrar o trecho na música. Da mesma fonte:

Donna ni fukeiki datte koi wa infureeshon
Konna ni yasashiku sarecha midara
Akarui mirai ni shuushoku kibou da wa

Nippon no mirai wa (wow wow wow wow)
Sekai ga urayamu (yeah yeah yeah yeah)
Koi wo shiyou ja nai ka (wow wow wow wow)
Dance! Dancin’ all of the night

Pois é. Cita-se explicitamente a recessão, a inflação e, claro, o mundo que “invejaria o futuro do Japão”. Bem, como sabemos, os fios da história são tecidos de modo algo desconhecido por nós, mortais. Então…

Growth slowed markedly in the 1990s during what the Japanese call the Lost Decade, largely because of the after-effects of the Japanese asset price bubble and domestic policies intended to wring speculative excesses from the stock and real estate markets. Government efforts to revive economic growth met with little success and were further hampered by the global slowdown in 2000.[2] The economy showed strong signs of recovery after 2005; GDP growth for that year was 2.8 percent, surpassing the growth rates of the US and European Union during the same period.

Pois é. Todo mundo danced all of the night… A música está aí embaixo (versão resumida do clip aqui).

Gosto desta música porque, bem, sucessos pop são terrivelmente hipnóticos. Mas, além disso, no caso deste hit, há o aspecto econômico, literalmente cantado em prosa e verso. Como não sou um conhecedor da música brasileira, não sei se existem músicas assim, tão explicitamente contextualizadas. Imagino que existam e agradeço qualquer dica que me enviem em comentário.

Uma dica boa para trabalhos com alunos de graduação (está em dois livros de teaching for undergraduates de Economia que tenho aqui) é usar músicas. Bom, a turma tem que ter interesse em aprender, senão vira bagunça. Bem, neste caso só nos resta…wow wow wow wow wow wow…

Ah sim, a economia japonesa…ei-la, resumida (dados atualizados) com minha tradicional utilização do R (no caso, RStudio, bons pacotes e um pouco de bom gosto para cores…ou não?).

new_Abenomics_GDP_dessaz

Abe, meu filho, leva esta economia para um futuro brilhante! Mais integração econômica, mais mercados flexíveis…vamos lá! Tá tudo lá, nos manuais!

Por que (tanta) xenofobia?

Todo mundo sabe que imigração é, via de regra, ótimo para o desenvolvimento econômico. Analogamente, ninguém diz que a independência do Banco Central piora o cenário inflacionário.  O que estas duas situações têm em comum? Fácil: os interesses individuais.

Não é comum ver funcionários do Banco Central fazendo greve pela independência da autoridade monetária e também não é comum ver gente fazendo passeata para que tenhamos mais médicos espanhóis, professores de história do pensamento econômico italianos ou, sei lá, faxineiros austríacos (ou mexicanos).

Aliás, não é de hoje que vejo tanta gente fazendo comentários xenófobos. É, isto mesmo. Brasileiro, o tal cordial e atencioso que ama tudo e todos, muitas vezes, vê-se com um discurso xenófobo. Outro dia uma reportagem da TV falava de “empregos roubados” por gente que veio da Europa tentar a vida aqui.

Por que isso? Talvez a xenofobia seja fruto de nossa desigualdade econômica. Por que? Vejamos um autor antigo e seu insight interessante.

Por maiores que sejam, porém, as vantagens econômicas de uma numerosa imigração para o Brasil, as resistências que ela encontraria e os problemas sociais que a sua presença poderia criar, provàvelmente não a tornariam desejável.
Nessas condições, não há possibilidade de outro tipo de imigração além de lavradores com capitais, ou de técnicos especialmente necessários ao país, que, em virtude do seu pequeno número, podem passar despercebidos. E, mesmo assim, é possível que o rápido desenvolvimento de uma classe média numerosa, a cujos desejos o Govêrno é especialmente sensível, venha restringir a aceitação dêsses técnicos aos setores da população em que a falta de nacionais credenciados seja indiscutível. (Lambert, J. (1970). Os Dois Brasis, 6a edição, p.72-3)

Lambert, então, achava que a desigualdade econômica gerava uma certa animosidade contra imigrantes (sua lógica lembra muito o discurso das “elites” que alguns tanto gostam) dado que os mesmos chegariam ao país em situação inicial melhor.

Eu tendo a ver nos grupos de interesse um motivo para maiores barreiras à imigração. Não creio que um noveaux riche, ou melhor, um recém-saído da pobreza, fica chateado em ver um estrangeiro ganhando mais do que ele. Tendo a imaginar o oposto: o sujeito que ascendeu adora usufruir de novos bens e um professor estrangeiro, por exemplo, é uma ave exótica sobre o qual ele adora contar aos amigos.

Então, não, eu não concordo com este aspecto da visão do Lambert. Não é uma questão de “orgulho” ou “amor próprio”, como ele insinua. É uma questão de grupos de interesse. Penso, por exemplo, na xenofobia – ironicamente falando – francesa, que me parece um problema econômico, não de “amor próprio”. Economia política mesmo: o sujeito não quer a concorrência do profissional estrangeiro.

Em outras palavras, a desigualdade pode aumentar a xenofobia e há grupos de interesse que lucram com isto. Pergunte-se a quem interessa, por exemplo, difundir discursos sobre “elite branca”, sobre “racismo”, numa tentativa de amplificar e distorcer a interpretação de problemas importantes em proveito próprio.

Eu me pergunto mesmo é se há algo a se reinterpretar na minha leitura de Lambert. Depois eu conto mais.

Atravessar a faixa de pedestre com o sinal fechado para você, pedestre, é racional. Não atravessar…também.

Olha que acabei até falando um pouco de psicologia evolutiva, mesmo sem querer (e até citei o glorioso Esporte Clube Pelotas!). ^_^

Liberdade

Ela era demais, não?

Liberdade, essa palavra que o sonho humano alimenta, que não há ninguém que explique e ninguém que não entenda (in: Romanceiro da Inconfidência, citado por Rangel, F. & Fernandes, M. (1987) Liberdade, liberdade. L&PM Editores)

Um herói injustiçado da abolição

Por que? Descubra aqui. É, estou repetindo um tema antigo, mas pensar em história econômica “jogando fora” a teoria porque “ela é neoclássica, e não austríaca ou marxista”, como querem alguns black blocs maoístas, é de uma ignorância terrível e eu, como professor, posso não estar qualificado para ministrar um castigo por sua falta de educação, mas sou obrigado a puxar a orelha das pessoas. 

É muito comum enfrentar este tipo de arrogância em debates. O sujeito é mais ou menos assim:

Sentado atrás de uma escrivaninha, anotando palavras e números num papel, ele tende a supervalorizar o significado de seu trabalho. Como o patrão, ele escreve e lê as coisas que outros colegas anotaram, conversa diretamente ou por telefone com outras pessoas. Muito vaidoso, imagina-se parte da elite gerencial da empresa e compara suas tarefas com as do chefe. (Mises, L. (1988). A Mentalidade Anticapitalista, p.24)

Cheio de dinheiro, herdeiro de um negócio mais ou menos bem-sucedido, ou pelo rent-seeking ou pelo empreendedorismo knightiano-kirzneriano (profit-seeking), pensa que porque leu três páginas de um livro de quatrocentas, já viu a verdade (sem sequer se questionar se faz sentido buscar alguma suposta verdade…). 

Não é muito diferente do colega intelectual do departamento de (s)ociologia (obrigado, Gaspari, por criar o termo…) que olha para o colega rico, senta-se à mesa e suspira de tristeza pensando em como a riqueza do colega não o tirou do comportamento racional, mesquinho que, aliás, crê, teoricamente não fazer sentido pois a alienação de classe…e por aí vai. 

No final do dia, eu fico com Alberto Oliva:

(…) não cabe impor ao pesquisador a tarefa de fazer inventários ontológicos que retratem fidedignamente o que a realidade é em si mesma. Sua missão deve ser a de elaborar teorias que se revelem capazes de explicar as propriedades essenciais dos entes aos quais se está conferindo primazia ontológica. (Oliva, A. (1999). Conhecimento e Liberdade, p.114)

Não que isto resolva a questão, como se vê, de quem está correto ou errado, mas creio que nos mostra a impossibilidade de fugir da liberdade que a investigação científica necessita ter. Esta liberdade, obviamente, não é sinônimo de unanimidade (nem poderia), mas é um dos pilares que nos ajuda a avançar. 

Ah sim, a tentativa de desqualificar o adversário, claro, não ajuda muito neste debate. Em última instância, a investigação científica – notadamente a da história econômica – vai nos desvelando camadas e camadas de poeira que turvam a visão. Camadas que estavam lá pelo tempo e camadas que estavam lá porque somos preconceituosos demais para percebermos que o buraco é mais embaixo.

A história econômica já sofreu demais nas mãos de pseudo-professores e também dos doutrinadores. 

Para terminar, apenas um viva. Para quem? Para Manuel Pinho de Sousa Dantas! 

Bons momentos…

Eu gosto muito desta tabela que peguei lá do livro-texto de Economia Monetária do Ronald Hillbrecht (Editora Atlas). Trata-se do custo do PROER e de planos similares em outros países. Mostra o porquê de eu reafirmar sempre que a melhor assessoria econômica é a do candidato tucano (nada contra a assessoria do falecido candidato Eduardo Campos, claro).

Fullscreen capture 8152014 95016 PM

 

Quem viveu esta época sabe bem o que foi aquilo tudo. Quem estava no berço ou achando que sabia economia porque decorava frases feitas de 147 caracteres, bem, espero que um dia aprendam.

O que parece ser…não o é. Ou algo assim – o caso da Lei do Mercado Livre de 1953

Estamos em 1953 e o governo Vargas resolve fazer a maior piada da história econômica brasileira do pós-guerra (até aquele momento): cria a Lei do Mercado Livre. Aí você vai me dizer: nossa, o super-neoliberal Getúlio Vargas teve um acesso de loucura e liberou?

Bem, veja o que dizem estes autores sobre esta lei, conhecida como Lei 1.807:

“(…) [A] Lei do Mercado Livre (Lei 1.807) promulgada em janeiro de 1953, exatamente no contexto em que o governo parecia afirmar sua ideologia nacionalista (…) permitia liberdade cambial e afrouxava as condições de reinvestimento ao capital estrangeiro, mas introduzia um sistema cambial bastante heterodoxo de taxas múltiplas de câmbio, tanto para importações como para exportações, sistema este que antecipa as faixas cambiais da Instrução 70 da SUMOC, de outubro do mesmo ano. A adoção destas taxas múltiplas de câmbio representou, na prática, uma desvalorização cambial, mas procurando minimizar os prejuízos do setor industrial, pois privilegiava a importação de bens de capital e insumos essenciais, administrando ganhos e perdas decorrentes da crise cambial segundo um critério nitidamente político e pró-desenvolvimentismo.

É, rapaz. O homem enganou todo mundo! Vou liberar o câmbio, mas vai ser com mil e uma traquinagens! Não vai ser livre, vamos ter vários preços, etc, etc. Claro que a história nos ensina que não deu certo (sentiu a doce ironia?).

Bem, fica aí a curiosidade.

Revolução_de_1930

Eu sou um neoliberal! Sou um neoliberal! Eu li Mises, Rothbard e sou anarco-capitalista! Mas, na hora que me falam de não me meter na vida alheia, eu crio taxas múltiplas de câmbio e ai daquele que reclamar!

Equipare a razão à paixão inicial e você será um bom economista

20140814_210202O trecho acima é do falecido Simonsen, em Inflação: Gradualismo x Tratamento de Choque, em sua 2a edição de 1970, pela APEC Editora. Acho um trecho sensacional. Por que? Porque Simonsen faz o comentário que eu gostaria de ouvir de 15 em cada 10 alunos (isso mesmo) de Economia que já pensaram, alguma vez em sua vida, sobre a aplicação da teoria à prática.

Não, não precisa ficar naquela chatice da discussão metodológica (importante, merece respeito, etc, mas é um campo que facilmente se enche de gente pedante que não leu o que diz ter lido e aí cansa). Basta pensar no que lê, no que estuda.

Simonsen – numa época em que regressões eram calculadas à mão – faz uma regressão simples a partir de um modelo simples e qualifica seus resultados com uma elegância que raramente se vê. Claro, parte do meu encanto está no termo renda permanente, conhecido dos leitores deste blog.

Convenhamos: quantos alunos você tem que, após fazerem uma crítica apaixonada por alguma medida de política econômica, partem para o computador para fazer um teste e depois pensam sobre o que estimaram (e diagnosticaram)? Tem uns que até estudam o método para fazer o teste, tamanha a vontade de entrar na discussão com a razão equiparada à paixão. Aliás, isto é o que caracteriza um bom economista (ou aluno de).

Quer um exemplo? Olha este cara aqui.

 

Ainda a discussão da função consumo – a importância da teoria (com um exemplo relativamente simples)

Voltando à função consumo

consumo33Vocês sabem que sou simpático àquela história de deixar os dados falarem, ao invés de torturá-los para dizerem o que desejo que digam, certo? Pois bem. Ontem eu continuei um assunto que volta e meia me incomoda: a função consumo. Começou com um post para ajudar a audiência do Nepom e continuou aqui com este outro.

Aproveito para reafirmar que estou, simplesmente, seguindo o que um aluno de Economia interessado no tema faria: tento explorar a teoria com dados do Brasil. Para fazer isto de forma organizada, uso um exemplo de um bom livro de Econometria, no caso, o Basic Econometrics de Gujarati & Porter (sim, existe em português).

O leitor mais acostumado à Econometria sabe que as estimações que fiz podem ter muitos problemas potenciais (digamos que o método de mínimos quadrados ordinários usado para calcular os parâmetros nas estimações pode até não ser o melhor método…). Mas eu me dirijo aqui, principalmente, ao leitor que está angustiado, perguntando-se sobre a utilidade da teoria, o porquê da econometria, etc.

Bom, vamos seguir com o capítulo 17 do Gujarati [Gujarati & Porter (2009), ou seja, trata-se da 5a edição]. Veja que discussão interessante ele faz em seu exemplo 17.10. Vou reescrever o texto, adaptando-o ao nosso problema que é estimar a propensão marginal a consumir com dados anuais do Brasil (para detalhes, veja o texto do Nepom, que foi o primeiro nesta discussão).

Duas Alternativas Teóricas…Mesma Especificação Econométrica

Econometria é uma ferramenta útil, mas não se pode ir para a banheira apenas com ela. É preciso ter teoria (ou você trocará o sabão pela esponja, o que pode trazer consequências terríveis para sua pele) também. Veja só que excelente ponto para pensarmos!

Digamos que o consumo siga a teoria da renda permanente. Como já vimos, isto significa que devemos ter uma hipótese sobre como a renda permanente varia no tempo. Juntando esta hipótese à equação principal que é a função consumo, obtém-se uma forma reduzida que é a última equação aí embaixo.

Ct = β1 + β2X*t + ut

X*t – X*t-1 = λ(Xt – X*t-1)

Ct = λ β1 + λ β2 Xt + (1- λ) Ct-1 + [ut – (1-λ) ut-1]

Repare que, de forma ligeiramente distinta do que fiz antes, a função consumo inicial carrega um intercepto, β1, que é uma concessão que faço a Gujarati & Porter (2009) porque, a rigor, não precisaríamos dele já que a história da teoria da renda permanente é ligada ao fato de que as estimações de Kuznets não encontravam significância estatística para o intercepto. Foi, aliás, o que eu fiz ontem, aqui.

Mas seja bonzinho e deixe o intercepto lá. Faça como alguns e diga para si mesmo: vou desconsiderar o intercepto caso ele não seja significativo (uma justificativa meio post hoc, mas útil no momento).

Obviamente, esta função pode ser estimada com uma equação do tipo:

Ct = a + b1Xt + b2Ct-1 + vt

Bonito, não? Mas e se eu te disser que podemos ter outra teoria que seja compatível com esta equação a ser estimada? Pois é. Digamos que o consumo, no longo prazo, é uma função da renda corrente. Ou melhor, o consumo permanente é função da renda corrente. Podemos então, fazer como fizemos para a renda permanente e supor um modelo de ajuste para o consumo ao longo do tempo. Eis o modelo:

C*t = β1 + β2Xt + ut

Ct – Ct-1 = λ(X*t – Xt-1)

Ct = λ β1 + λ β2 Xt + (1- λ) Ct-1 + λ ut

Repare que, novamente, a última equação é o resultado (ou a redução) das duas primeiras equações. Esta também pode ser estimada como:

Ct = a + b1Xt + b2Ct-1 + vt

Bonito, heim? Mas muito bonito mesmo.

Digressão Metodológica

Ensina-nos, dentre outros, Pasquali (1997) que a Ciência tem destas coisas. Ainda mais no caso de ciências humanas. Refiro-me ao problema da medição dos fenômenos. Pela dificuldade inerente à obtenção de medidas exatas dos atributos do objeto de estudo, recorremos às “leis científicas”. Em sua tipologia temos:

1) Medida por lei: quando uma lei for estabelecida empiricamente entre duas ou mais variáveis, a(s) constante(s) típica(s) do sistema pode(m) ser medida(s) indiretamente pela relação estabelecida entre essas variáveis, como é o caso da viscosidade em física e a lei do reforço em psicologia.

2) Medida por teoria: quando nem leis existem relacionando variáveis, pode-se recorrer a teorias que hipotetizam relações entre os atributos da realidade, permitindo assim a medida indireta de um atributo por meio de fenômenos a ele relacionados via teoria. O importante nesse caso é garantir que haja instrumentos calibrados para medir (fundamentalmente ou de outra forma válida) os fenômenos com os quais o atributo em questão esteja relacionado pela teoria. [Pasquali, L. Psicometria: Teoria e Aplicações, Editora da UnB, 1997, p.37]

Não é que o que estamos discutindo aqui parece muito com alguma mistura de (1) e (2)? Afinal, podemos partir da teoria microeconômica e estabelecer a relação entre consumo e renda sem muita dificuldade, como também podemos partir da “intuição” de Keynes e falar de leis psicológicas ad hoc. Pessoalmente prefiro a primeira opção, mas, em ambos os casos, podemos refinar o raciocínio com inspiração que não é nem empírica e nem teórica, exclusivamente falando, ao, por exemplo, estabelecermos que “defasagens são importantes”.

Veja que não importa muito. O ponto é que os dois modelos podem ser justificados de uma forma ou de outra (ou, dirão alguns, por uma combinação convexa de ambos…).

Voltando ao laboratório…

Voltando ao problema econométrico, repare que uma a mesma estimação poderá nos dar duas interpretações ligeiramente distintas dos parâmetros. Lembra da estimação que fizemos?
Coefficients:
Estimate     Std. Error      t value    Pr(>|t|)
(Intercept)     0.0005092     0.0001490   3.418    0.00115 **
pib[, 1]           0.2188254     0.0501393   4.364    5.21e-05 ***
cons[, 2]        0.6154625    0.0877814    7.011    2.59e-09 ***

Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 0.0003554 on 59 degrees of freedom
Multiple R-squared: 0.9871, Adjusted R-squared: 0.9867
F-statistic: 2259 on 2 and 59 DF, p-value: < 2.2e-16

Com a nova intepretação de Gujarati & Porter, o que era a estimação da função consumo keynesiana com defasagens distribuídas da renda virou uma estimação do modelo de renda permanente (com este exótico intercepto na função consumo de longo prazo) e, portanto, a PMgC de longo prazo será 0.569061. Note que, em relação à renda permanente, a PMgC é β2 e este tem que ser obtido pela seguinte conta: .(1-0.6154625) β2 = 0.2188254. Ou seja, 0.569061! Faz todo sentido, não faz? Afinal, no longo prazo, a renda permanente é a única renda relevante para o consumidor, na teoria desenvolvida por Friedman.

No caso do segundo modelo acima, repare que 0.2188254 é, agora, a estimativa de λ β2, além de, novamente, ser a PMgC de curto prazo. Por sua vez, 0.6154625 é a estimativa de (1- λ). Assim, λ = 0.384538 e, portanto, a PMgC de longo prazo seria dada pela solução de: 0.2188254 = 0.384538β2. Ou seja, β2 = 0.569061.

Viu o que aconteceu? Estamos exatamente com as mesmas PMgC de curto e de longo prazo para ambos os modelos. Mas existe uma diferença, não é? No primeiro caso, o termo de erro da forma reduzida representa uma média móvel de erros do modelo estrutural, o que implica em uma interpretação distinta da dinâmica entre consumo e renda.

Uma pequena qualificação…

Na minha opinião, Gujarati & Porter (2009) não estão tão corretos ao dizerem que há uma “grande diferença” entre os modelos, no que diz respeito ao aspecto teórico do mesmo. O que cada modelo faz é considerar ora a renda permanente no longo prazo, ora o consumo permanente no longo prazo. A interpretação dos coeficientes não é tão distinta assim.

A diferença está, isto sim, na questão dos resíduos do modelo reduzido e aí nós temos um bom ponto que os autores levantam com propriedade: como distinguir entre as expectativas adaptativas e o ajustamento parcial? No caso da função consumo, eles dizem:

If habit or inertia characterizes consumption behavior, then the partial adjustment model is appropriate. On the other hand, if consumption behavior is forward-looking in the sense that it is based on expected future income, then the adaptative expectations model is appropriate. [Gujarati, D.N. & Porter, D.C. (2009), p.645]

O curioso deste trecho é o seguinte. É verdade que a teoria nos diz que “hábitos” ou “inércia” no consumo devam ser modelados com modelos de ajuste parcial. Mas não é muito correto dizer que o modelo de expectativas adaptativas é adequado quando o sujeito se comporta olhando para o futuro (forward-looking). A bem da verdade, inicialmente, era assim que se pensava em Economia. Achava-se que o modelo de expectativas adaptativas era uma boa forma de se pensar na formação de expectativas do consumidor. Contudo, este modelo de expectativas é backward-looking. Ele não tem nenhum componente futuro na fórmula.

Talvez Gujarati esteja pensando naquilo que Maddala [Maddala (1998), 2a ed] nos ensina (cap.10, seção 10.11 ou, para quem comprou a última edição, Maddala & Lahiri (2010), cap.13) sobre os testes de racionalidade (falei disso aqui) que envolvem algum tipo de equação similar a estes modelos de defasagens. Dê uma olhada no meu post ou na bibliografia indicada para ter uma noção de como implementar o teste.

Momento Lego do Dia

O blog está fazendo um sucesso ultimamente. Geralmente, por causa do R. Mas, que tal mudarmos de assunto rapidamente? Vamos falar de Lego. Segundo o artigo:

The slope of this line is 0.104 US Dollars per Lego piece. Boom. There is your answer. On average, one Lego piece costs 10.4 cents. Also, I think it’s nice to notice that this data is fairly linear.

Mas o legal é você ver o gráfico (feito usando o plotly). Ele está aqui.

Exemplo de Função Consumo – Modelo da Renda Permanente – para o Brasil (continuando uma discussão lá do blog do Nepom…)

Milton Friedman visita o blog: a função consumo sob a hipótese da renda permanente

Seguindo a idéia do meu post lá no Nepom, vejamos a estimação da função consumo sob a renda permanente. Os dados são os mesmos que vimos lá, ok?

Bom, inicialmente, o problema todo está no fato de que você não possui medidas da renda permanente porque a mesma não é observável. A solução de Friedman é simples (e você pode encontrá-la em suas anotações de minhas aulas ou em artigos e livros mais sérios): supondo uma lei de movimento no tempo para a renda permanente que envolve a renda corrente e com um pouco de álgebra, você chega em uma função estimável.

A genialidade de Friedman está no uso das defasagens de Koyck e na forma como ele criou a lei de movimento (ou, se você quiser, a equação em diferenças) para a renda permanente (falarei um pouco dela mais adiante). Sem entrar em detalhes agora, o fato é que chegaremos à seguinte especificação para estimarmos:

Ct = bYt + cCt-1 + et

Repare que não existe intercepto nesta especificação de equação para regressão mas, se você estiver em um período de tempo apenas, o consumo defasado é uma variável pré-determinada e, portanto, você obtém funções de curto prazo para cada ano da amostra, por assim dizer. Sim, você que já estudou mais sabe que isto tem a ver com a discussão dos livros-texto acerca das funções consumo estimadas com dados no tempo e com cross-section. É isso aí.

Estimando…

Mas vejamos, no espírito do post do Nepom, como fica a estimação desta função.

Coefficients:
Estimate    Std. Error      t value    Pr(>|t|)
pib[, 1]               0.14611    0.04928         2.965     0.00434 **
cons[, 2]            0.78414    0.07879         9.952     2.56e-14 ***

Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 0.0003857 on 60 degrees of freedom
Multiple R-squared: 0.9983, Adjusted R-squared: 0.9983
F-statistic: 1.79e+04 on 2 and 60 DF, p-value: < 2.2e-16

Comparando com a função keynesiana com defasagens

Pois é. Não é difícil obter a função consumo de longo prazo:

C = [0.14611/(1 - 0.78414)] Y ou seja: C = 0.676874Y.

Comparando com o que vimos no Nepom, a PMgLP é maior, mas não está tão perto assim da unidade. Para efeitos de comparação, lá encontramos 0.5691 para a PMgLP.

Pode-se também ver que as defasagem mediana e média são maiores. Respectivamente, são: 2.850 e 3.6326. Comparando com o que encontramos para a função keynesiana com defasagens, tínhamos, respectivamente, 1.428 e 1.6005. Praticamente o dobro, não?

Um pouco mais sobre o mecanismo de expectativas adaptativas 

Curiosamente, mas nem tanto, a introdução do mecanismo de expectativas adaptativas para a renda permanente nos deu uma função consumo cuja estimação gerou uma explicação da realidade na qual a defasagem do impacto de um aumento de R$ 1.00 na renda em um ano leva mais tempo para que 100% de seu efeito seja realizado no consumo. Antes eram 1.4 anos, agora são 2.9.

Eu disse “nem tanto” porque, obviamente, como o mecanismo “olha para o passado”, poderia acontecer ser mesmo esperado que o passado ficasse mais importante nesta explicação toda. Bom, mas aí fica uma história algo exótica porque é difícil imaginar que pessoas formem expectativas olhando para trás e com tantas defasagens…

Não explicitei aqui, mas a hipótese de renda permanente que usei é o famoso mecanismo de expectativas adaptivas (ver, por exemplo, o livro de Gujarati & Porter, seção 17.5) em que:

Ypt - Ypt-1 = (1-λ)(Yt – Ypt-1)

O detalhe é que λ foi estimado como sendo de 0.78414. Ou seja:

Ypt - Ypt-1 = (1-0.78414)(Yt – Ypt-1)

Ou melhor:

Ypt = (0.78414)Ypt-1 +(1-0.78414)Yt

Ypt = (0.78414)Ypt-1 +(0.21586)Yt

Isso significa que a renda permanente em um período qualquer carrega 78% da própria renda permanente anterior e 22% da renda corrente. Neste sentido, eu esperaria que as defasagens fossem importantes mesmo.

Mais um pouco de compreensão? Vamos tentar!

Aliás, podemos estudar um pouco melhor esta última equação. Veja só como funciona o mecanismo adaptativo na renda permanente.

Fullscreen capture 8142014 10026 PM

Repare no trecho em destaque. São valores dados. Fiz uma série de Yt que evolui em intervalos de 10 unidades. Então, você esperaria que a renda permanente também evoluísse em 10 unidades, não? Mas uma característica do mecanismo adaptativo é, como o nome diz, ir se adaptando ao longo do tempo. A correção não é automática. Neste sentido, repare que ele leva um tempo até aprender que o crescimento (o delta) de Yt é de 10 unidades. Na planilha, na verdade, isso acontece exatamente em t = 70.

No gráfico acima dá a impressão de que isto ocorre antes mas é porque os valores se aproximam para algo em torno de 9.99 por volta de t = 30 e 9.9999 por volta de t = 39. Claro, você pode achar isso razoável, mas lembre-se que estamos a falar aqui de dados anuais. Será mesmo que a renda permanente seguiria se ajustando com esta defasagem, mesmo para um mecanismo tão óbvio como este (sempre de dez em dez, sem qualquer alteração)?

Concluindo…

Esta discussão continua em outra hora, pessoal. Tenho que fazer outras coisas. Espero que tenham se divertido. No R, não tem muito segredo. Caso você não se lembre, para estimar uma regressão sem intercepto, basta acrescentar “-1″ ao comando da regressão. Tínhamos:

summary(lm(cons[,1]~pib[,1] + cons[,2]))

Logo, agora:

summary(lm(cons[,1]~pib[,1] + cons[,2]-1))

O restante, claro, você viu lá no Nepom.

Até mais!