Estimating What?

何か書かないとずるずる行きそうなので、とりあえず書いてみる。

最近、ニュースショックの入ったRBCモデルをBayesian Estimationしたペーパーの発表を聞く機会があった。とてもおざっぱに書くと、主要な結果は、何種類かのニュースショックの入ったモデルをestimateした結果、output (GDP)のvolatilityの2/3はニュースショックだけで説明できるというものだ。RBCで2/3という数字を聞くとなぜかうれしくなるというのは愛嬌として、estimationとcalibrationの違いについて思いをめぐらした。

ニュースショックがどれくらい「重要」か、測りたいとしよう。簡単に思いつくのは2つの方法である。
  1. ニュースショックが入ったモデルと入ってないモデルを両方calibrateしてsimulateする。ニュースショック関連以外のパラメーターは同じにする。二つのモデルのdynamicsを比較することによって、ニュースショックが「追加的に」何をもたらすかを測ることができる。
  2. ニュースショックが入ったモデルをestimateする。estimateしたモデルのsimulation結果から、たとえばoutputのvolatilityうち「どの割合」がニュースショックからきているのかを測ることができる。

今回聞いたペーパーは2のアプローチである。前に紹介したJaimovich and Rebelo (AER2009)は1のアプローチである。2のアプローチを使うとすると、別のショックを足していくたびに、おそらくはニュースショックが説明できる割合が低下していくだろう。もしかしたら、ニュースショックが入ったモデルとobservationally equivalentなモデルも作ることができるかもしれない。では、たとえば2/3という数字にどのような意味があるのだろう。ひとつの「解決策」としては、ChristinanoやNorthwesternの連中がやっているみたいに、考え付く限りのあらゆるショックを入れてみるというものだ。ただ、どこまで行けるのか、どこまで行けばいいのか、僕にはよくわからない。

1のアプローチはある意味よりmodestだ。モデルでデータを「説明」しようとはせずに、ある新しいモデルの要素が、モデルのpropertyにどのような影響を与えるかの分析にとどまるのだ。

僕は個人的には1のアプローチの方が好きだけれども、最近はestimationを使いたがる人が多いようだ。実際に政策に使えるモデルがほしいとなると、データとできるだけ整合的なモデルが欲しいのは理解できる。ただ、モデルが「正しい」と仮定してestimateするのはよいとしても、その限界をちゃんと認識しなければならない。

0 comments:

Post a Comment