最近、ニュースショックの入ったRBCモデルをBayesian Estimationしたペーパーの発表を聞く機会があった。とてもおざっぱに書くと、主要な結果は、何種類かのニュースショックの入ったモデルをestimateした結果、output (GDP)のvolatilityの2/3はニュースショックだけで説明できるというものだ。RBCで2/3という数字を聞くとなぜかうれしくなるというのは愛嬌として、estimationとcalibrationの違いについて思いをめぐらした。
ニュースショックがどれくらい「重要」か、測りたいとしよう。簡単に思いつくのは2つの方法である。
- ニュースショックが入ったモデルと入ってないモデルを両方calibrateしてsimulateする。ニュースショック関連以外のパラメーターは同じにする。二つのモデルのdynamicsを比較することによって、ニュースショックが「追加的に」何をもたらすかを測ることができる。
- ニュースショックが入ったモデルをestimateする。estimateしたモデルのsimulation結果から、たとえばoutputのvolatilityうち「どの割合」がニュースショックからきているのかを測ることができる。
今回聞いたペーパーは2のアプローチである。前に紹介したJaimovich and Rebelo (AER2009)は1のアプローチである。2のアプローチを使うとすると、別のショックを足していくたびに、おそらくはニュースショックが説明できる割合が低下していくだろう。もしかしたら、ニュースショックが入ったモデルとobservationally equivalentなモデルも作ることができるかもしれない。では、たとえば2/3という数字にどのような意味があるのだろう。ひとつの「解決策」としては、ChristinanoやNorthwesternの連中がやっているみたいに、考え付く限りのあらゆるショックを入れてみるというものだ。ただ、どこまで行けるのか、どこまで行けばいいのか、僕にはよくわからない。
1のアプローチはある意味よりmodestだ。モデルでデータを「説明」しようとはせずに、ある新しいモデルの要素が、モデルのpropertyにどのような影響を与えるかの分析にとどまるのだ。
僕は個人的には1のアプローチの方が好きだけれども、最近はestimationを使いたがる人が多いようだ。実際に政策に使えるモデルがほしいとなると、データとできるだけ整合的なモデルが欲しいのは理解できる。ただ、モデルが「正しい」と仮定してestimateするのはよいとしても、その限界をちゃんと認識しなければならない。
0 comments:
Post a Comment