Rise of Administrative Data in Economics

経済学の問題点を指摘したシリーズ(典型的な、あまり深みのない経済学批判なので取り上げもしなかった)に代表されるように、最近は質が落ちてきているという話が聞かれるEconomist誌が、経済学関連のめずらしくタイムリーな記事を載せていたので言及しておく。

経済学におけるサーベイデータ(Survey Data)から行政的データ(Administrative Data)へのシフトについてである。記事は二つになっており、これこれである。これまでは、経済学者は、主に、政府(あるいは民間が主体のこともある)が定期的に実施するインタビューに基づいてつくられたデータ(サーベイデータ)を主に使ってきた。但し、最近は、サーベイデータの質の低下が認識されてきている。その背景にある大きな要因は、返答率の低下である。
上のグラフはEconomist誌から引用させてさせてもらったものだが、アメリカ、カナダ、UKの代表的なサーベイデータの返答率(インタビューしたら答えてくれた人の割合)の変化を示している。どのサーベイデータの返答率も低下傾向にある。たとえば、アメリカの家計の消費動向を1980年代から追っている貴重なデータであるConsumer Expenditure Surveyの場合、返答率は2001年の80%をちょっと下回るレベルから2016年は63%くらいまで低下している。これがなぜ問題かというと、答えてくれる人が少なかったり、答えてくれる項目の数が減った場合、その減少を補うために、専門家が、入手できなかったデータを推定しているのであるが、推定しなければならないデータの数が増えれば増えるほど、まぁ、そのデータセット自体が当てにならない度合いが高まるのは想像がつくであろう。実際に、記事では、サーベイデータと他のデータとの整合性が以前より低下してきていると指摘している。さらに問題なのは、返答をしてくれない人の特徴が、返答をしてくれる人の特徴と異なる場合、返答してくれた人のデータに基づいて返答してくれなかった人のデータを推定しようとすると、間違ってしまうということである。

このような問題を受けて、経済学では、行政データ(政府が何らかの目的のために集めたデータ)を使う頻度が高まってきている。
上のグラフは、NBER(全米経済研究所、アメリカの有名な経済学者が多く所属してワーキングペーパーを出している、もっとも有力な経済のシンクタンク)のワーキングペーパーの要旨において、「行政データ」という言葉が使われた頻度を追ったものである。2000年ごろまではほぼゼロだったが、2017年には30近いワーキングペーパーで使われるようになっている(例えば、2017年のワーキングペーパーの数は1163なのでワーキングペーパー全体に占める割合はまだ小さい(2.4%)が、とても速いスピードで増加しているのは見て取れる)。

行政データは、サーベイデータのように、返答率の低下や返答の質の低下で悩まされることはないが、別の問題点がいろいろある。1つ目は、行政データはある目的のために集められたものなので、経済学者が、例えば全国民からランダムにサンプリングされたデータが欲しいと思っても、必ずしもそういうものが手に入るわけではないということである。例えば、代表的な行政データは税の申告のデータである。これを使うと、税を申告した人の所得が正確に把握できる。しかし、国民全員が税を申告する必要がなければ、経済学者が欲しいデータとは異なることになる。それに、税を申告する際には、年齢や性別や家族構成という情報を提供しないので、そういう情報も組み合わせたい場合には簡単には対応できないということになる。ただし、アメリカの場合、社会保障番号(マイナンバーってよく知らないがそのようなものだと思う)を使って、税のデータと別のデータと組み合わせることで、税を申告した人の所得、家族構成などが把握できるという方法が開発されている。

2つ目は、このデータは使うためには、そのデータを使わせてくれる人を知っていなければならなかったり、バックグラウンドチェックなどいろいろな手続きを経なければならないので、既に地位が確立されていて、リソースやコネがある人が有利になるということがある。ちょっと前のエントリで触れたが、Raj Chettyはすごい行政データを使った研究を進めているが、これは、彼だから使えるという側面が多分にある。いい悪いは別として、経済学者間で富むものがさらに富むようになるという現象を生み出している。

3つ目は、上の点に関連するが、行政データを使ってある論文を書いて、例えば、その論文をジャーナルに送ったとして、エディターあるいはレフェリーには、結果を検証する方法がない。論文が出た後で、誰かが追試しようとしても、元になった行政データにアクセスできない限りどうしようもないのである。行政データを使っている人がいい加減なことをしているといいたいわけではないが、あるデータのクリーニング方法、その他手続き、あるいはモデルの仮定をちょっと変えたら結果が大きく変わるなんてことはよくある話なので、あとで追試できないというのはとても大きな問題点である。

もちろん、学会というのは、今後の経済学の方向性を変える可能性のある、起業家精神に富んだ行動に対して大きなインセンティブを付けるものなので、これまで使えなかったデータを使えるようにした人に報酬(パブリケーション)で報いるべきなのは当然なんだけれども、経済学会が上で挙げたようなイシューにどのように対応していくかは、興味深い。

Automatic Stabilizers in DSGE Model

自動安定化装置(オートマティック・スタビライザー)という言葉は聞いたことがあるだろうか?ある経済政策が、景気の変動に伴ってその効果が上下することにより、景気(あるいは税収)を安定させる効果がある場合、その政策は自動安定化装置として機能しているといわれる。

代表的な例は累進所得税である。景気が悪くなると人々の所得は平均的に低下する。累進的な所得税率は所得が高ければ高いほど税率も高く、所得が低ければ低いほど税率も低いので、景気が悪くなって所得が低下すると、所得に適用される税率も平均的に低くなり、税引き後の可処分所得は税引き前の所得ほどは低下しないこととなる。消費は可処分所得に依存する(可処分所得が多ければ多いいほど消費も多い)のが一般的なので、個々人の可処分所得の減少幅が小さければ、個々人の消費の減少幅も小さくなり、総消費額の低下の幅も小さくなるのである。

さらに、消費需要は総需要の一部であり、総需要がGDP・景気に影響を与えるという(ケインジアン的な)立場をとるなら、総消費及び総需要の低下幅を抑えることで、累進所得課税は自動的に景気を安定化させる(不況期にGDPの下落幅を小さくする)効果があるのである。

1980年くらいまでの経済学ではこのような効果がとても重要視されてきたし、現在の経済政策の議論においても、このような需要サイドからの効果は重要視されているが、1980年代以降の経済学では、総需要効果のない(価格の名目硬直性のない)モデルが発展してきたので、このような効果は分析されることが少なくなってきた。

その一方、公共経済学では、累進所得税は、所得が低い人の税率を下げて、所得が高い人の税率を高めることで、税支払い後の所得の再配分を行うことができるが、所得が高い(=生産性が高い)人の労働への意欲をそぐという労働インセンティブへの負の効果があり、再配分(公平)とインセンティブへの悪影響(効率)のトレードオフの文脈で活発に分析されてきた。1980年代以降のマクロモデルでは、このような(総需要を通じた効果と関係ないという意味で)供給側の効果はきちんと取り入れられており、自然に分析できるので、1980年代以降のマクロ経済学では、累進所得税はこのようなトレードオフの文脈で主に分析されてきた。

自動安定化政策のもう一つの代表的な例は公的失業保険である。失業したときに失業手当てを受け取ることができれば、彼らはそこから支出することができる。景気が悪化した際には失業率が上昇するので、景気が悪化したときは、自動的に失業者全体に配分される失業手当ての金額が上昇し、彼らがその手当てを消費することで、(失業手当がなく失業者は借金をして消費を維持することができない時に比べて)総消費の低下を抑えることができる。累進所得税のときと同じく、総需要が景気に影響を与えると考えれば、失業者による消費需要の低下を抑えることで、失業保険は、総需要の低下に自動的に歯止めをかける効果があるのだ。

但し、累進所得税のケースと同じく、このような効果は1980年代以降のマクロ経済学では総需要を通じた効果はあまり活発に分析されてなかった。一方、公共経済学あるいは労働経済学では、公的失業保険は労働者に民間ではあまり提供されていない保険を提供する一方、失業者が職を探すインセンティブに負の影響を与えるというトレードオフの文脈でしばしば分析されてきた。上と同様に、マクロ経済学でも、このような供給側の効果が主に分析されてきた。

前置きが長くなってしまったが、今回簡単に紹介するMcKay and Reisによるワーキングペーパー"Optimal Automatic Stabilizers"は上で挙げた自動安定化装置の効果を総需要効果のあるニューケインジアンDSGEモデルで分析している。彼らは、アメリカの様々な政策がどのくらい自動安定化に役立っているかを分析したペーパーをEconometricaに既に出しているが、今回のペーパーでは、そこから一歩進んで、自動安定化を考慮した際に最適な政策はどのようなものになるかを分析している。

これは簡単なことではない。累進所得税や公的失業保険の自動安定化効果を分析するためには以下のような要素が必須になるからである。
  1. 景気循環のあるDSGEモデルをベースとしなければならない。
  2. 総需要が景気に影響を与えるように、名目価格の硬直性を導入しなければならない。つまり、ニューケインジアンDSGEモデルを使わなければならない。
  3. 失業保険の供給側の効果を分析するためには、失業者が存在しなければならない、つまり異質性が必要である。しかも失業者はどのくらい一生懸命職を探すか決めなければならない。しかも、そのような決定は、失業保険がどのくらい手厚いかによって影響を受けなければならない(失業保険が手厚ければあまり一生懸命仕事を探さなくなる)。
  4. しかも、失業率自体が政策によって影響を受けるモデルを作らなければならない。つまり、サーチモデルをDSGEモデルに組み込まなければならない。
  5. 累進所得税の効果を分析するためには、所得が高い労働者と低い労働者が存在しなければならない。新たな異質性の導入である。しかも、それらの労働者はどのくらい働くか決め、その決定は所得税率に影響を受けなければならない。
  6. 景気循環が幸福度に影響を与える必要がある(そうでないと自動安定化政策の意味がない)ので、モデルは線形近似できない。線形近似をすると、好景気と不景気の時の効果が平均すると完璧に相殺されるので、景気循環の分析が面白くなくなる。
著者らはまさにこれらの要素を組み込んだモデルを作った。そして、消費者の幸福度(厚生)を最大化する失業保険の手厚さ(=b=失業保険が失業前の所得の何%をカバーするかという率)と累進所得税の累進性の度合い(=t)の組み合わせを計算した。上で述べたようなモデルを解くだけでなく、そのモデルの消費者の幸福度を最大化する政策のペア(bとt)を探すためにこのモデルを何度も解けるようにしなければならず、大変なことである。そのために、著者らは、いくつか重要な仮定を置いて、モデルが比較的簡単に解けるようにしているが、それでも大変なことである。彼らが置いた重要な仮定には以下のものがある。このような単純化のための仮定は最近よく使われている。
  1. 労働者は失業した場合借入制約に引っかかり、働いている場合には(将来失業した時に備えて)貯蓄しようにも貯蓄の借り手がいない(借りたい人は借入制約に引っかかっている)ので、結局労働者全員が何の貯蓄も負債も持たない(ので、資産分布を無視できる)。
  2. 政府も負債を発行しない。
  3. 資本のようなその他の貯蓄手段も存在しない。
  4. 失業のリスクはみな同じである。現在失業している労働者も現在働いている労働者も、来期の失業する確率は同じである
では、いくつか彼らの結果を見ていこう。彼らがアメリカの経済に合わせてカリブレートしたモデルによると、消費者の幸福度を最大化する(b,t)の組み合わせはb=0.85、t=0.26であった。bの方は失業者が働いていた時の収入の85%をもらえるという、かなり手厚い失業保険の額である。tの方は簡単な解釈の仕方はないが、アメリカの現在の累進所得税の累進度合いを表すtがt=0.15で、tは0だと累進性がなく(所得にかかわらず税率は同じ)、大きければ累進性が高いので、現在のアメリカより累進性が高い所得税が最適ということになる。

この結果だけだと、この二つの政策の自動安定化効果がどのくらい重要なのかわからないので、他のケースと比較してみよう。まずは、名目価格の硬直性がないモデルで同じ実験をしてみよう。名目価格が伸縮的というのは、いわゆる総需要から景気に与える効果がないケース(RBCモデルといってもよい)である。つまり、このケースでは、失業保険や累進所得税は自動安定化装置としての効果がないケースということになる。このモデルでは、消費者の幸福度を最大化する政策の組み合わせはb=0.77、t=0.27であった。自動安定化装置として役に立たない場合、失業保険は前のケースほど手厚くなくてもよい(失業前の収入の85%でなくて77%)が、望ましい所得税の累進性はあまり変わらないということだ。

では、景気循環が全くない場合はどうか?この場合の最適な政策の組み合わせは、b=0.77、t=0.27であった。つまり、伸縮的な価格のケースと同じである。また、中央銀行が景気循環を抑えるために強力に反応する(例えば失業率が高まりつつある際には金利を大きく切り下げる)ケースでも、最適な政策の組み合わせははb=0.80、t=27で景気循環がないケースと近かった。

これらの結果を理解するために、以下のグラフを見ていこう。
最初にちょっと述べたが、bを高めた際の幸福度への効果としては以下のものがある。
(b-1) 失業しても所得があまり下がらず消費も維持できる。(+)
(b-2) 職を探す努力が低下し失業率が上がる。(ー)
(b-3) 不況時も総需要の低下幅が小さくなる(GDPがあまり下落しない)ので景気循環の幅が小さくなる。(+)

上のグラフの左側は、(b-2)の効果をプロットしたものである。失業保険が手厚くなると(bが上がると)平均的な失業率が上昇し、経済にとってはマイナスの影響となる。景気循環を無視した場合、あるいは価格が伸縮的なので(b-3)の効果がない場合は、(b-1)と(b-2)がバランスするレベルでbが決定される。しかし、(b-3)を考慮に入れるとなると、bを変えることで景気循環の大きさがどのくらい影響を受けるかを見なければならない。それが上のグラフの右側である。具体的には、bを変えたときに、GDPの振れ幅がどのくらい下がるかを示している。このグラフが示しているのは、このモデルにおいては、bを高めることで、マクロ経済の景気の幅を大きく小さくすることができるので、この効果を生かすために、経済全体で最適なbのレベルが高まるのである。

では、tはどうだろうか?
tを高めた際の効果は次のものがある。
(t-1) 所得の不平等を累進所得税で圧縮できる。(+)
(t-2) 生産性の高い人の労働の意欲がそがれてGDPが下がる。(ー)
(t-3) 不況時は税率が下がり、総需要の低下幅が小さくなるので景気循環の幅が小さくなる。(+)
上の左側のグラフは、累進性を高めると平均的なGDPが低下するという(t-2)の効果を示している。bの場合と同じく、景気循環がなかったり、総需要効果が無視できる場合は、基本的に(t-1)と(t-2)のトレードオフから最適なtが決定される。一方、累進税率が不況期には下がって可処分所得の低下を抑えることで景気安定化に資する効果を示したのが上の右のグラフである。このグラフが示しているのは、tが上がっても、景気循環の振れ幅はあまり変わらない、つまり、tを通じた自動安定化効果は小さい、ということである。どうしてか?おしらくは以下のような点が重要なのではと思われる。
  1. このモデルでは(おそらくデータでも)景気は主に失業率の変化を通じて所得に影響を与えるので、失業保険を通じた可処分所得安定化(そして自動安定化効果)は大きいが、所得の格差全体はあんまり景気を通じて変化しない。
  2. 所得税率の累進性を通じて、不況時に所得税率が下がる効果は、所得が高い人にも低い人にも影響を与える。ところで前者は可処分所得が多少上がったところで消費はあまり影響を受けない。このペーパーでは示されていないと思うんだけれども、もしかしたら、累進性を通じた安定化効果は高所得の人の方が強いかもしれない。
結論としては、景気の自動安定化装置というチャンネルを考慮すると、失業保険の手厚さは他のモデルから得られる最適なレベルよりも高いものにするべきである一方、所得税の最適な累進性を考える際には、自動安定化装置というチャンネルはあまり考慮に入れなくてもよいということになる。

こういう、名目価格に硬直性がある(ので総需要を通じた効果や金融政策を分析できる)モデルで、消費者や企業などに異質性があるものは、最先端の分野の一つである。

PSID and Income Volatility

PSID (Panel Study of Income Dynamics)というのはアメリカの家計のパネルデータで、もっとも有名なもののひとつである。1968年(前年の所得等についてインタビューをするので1967年のデータ)から始まって、1997年までは毎年データがあり、その後は隔年のデータとなっている。1968年から毎年、同じ家計に、所得、労働時間、学歴、から始まって本当にいろいろな事項について質問をし、ひとつの家計から子供が独立したりすると、その子供も新しい家計としてサンプルに加えられて毎年追跡調査される。聞き取りをする家計の数が少ない(とはいえ5000の家計に所属する18000人)のがどうしようもない弱点なのだけれどもすばらしいデータセットであり、僕もサンプルに入りたかったなぁと思う。ミシガン大学が整備を続けており、誰でもウェブサイトから無料でダウンロードできる。

昔はばらばらのテキストファイルをダウンロードして、自分がほしい変数がどこにあるかをCodebookで調べて(年によって変わる…)、Stataとかに必要な変数を読み込み、自分で家計をや個人をつなげる作業が必要だったんだけれども、最近はすばらしいウェブインターフェイスから必要なものだけ簡単にダウンロードできるようになった。日本のマイクロデータを管理している人は是非見習ってほしいし、整備にお金が必要なら、日本政府はぜひお金を惜しまず出してほしい。

今年はPSIDが始まって50周年(!)なので、50周年を祝うさまざまなイベントが行われている。例えば、この前のAEA年次総会でも、PSID50周年記念セッションがあった。多分それらのイベントの関連だと思うんだけれども、MoffittとZhangによる、PSIDから計算できる所得の変動率(Volatility)についてのサーベイ的な論文がNBER Working Paperにあがっていたので、ちょっと見てみた。

彼らは、PSIDの強みとして、以下の4点を挙げている。
(1) とても長い(1967年~)サンプル期間。
(2) 最初に含まれていた家計(それ自体もアメリカの家計を代表するように選ばれている)とそこから派生してできた家計を追跡することにより、移民による変化を除けば、いつまでもアメリカの家計を代表するようにできていること。
(3) (最近使われる行政データが含んでいない)多岐にわたる質問をしていること。
(4) (家計が住んでいる)地域を特定するデータがあること。

PSIDを使って数多くのペーパーが書かれてきたが、重要なイシューは、個人の労働所得の変動率がどのくらいか、労働所得の変動を一時的な変動(一時的な労働所得の上下動)と恒久的な変動(ずっと変わらない個々の労働所得の差)に分解したときに、それぞれの大きさはどれくらいか、総変動率と、その一時的変動率、恒久的変動率は、時間とともにどのように変わっていっているか、であった。最後のポイントは、最近のトレンドとなっている、所得の不平等の度合いの変化と深く関連している。

著者らはいくつかPSIDをもとにしたデータを示しているのでそれを載せておく。使ったデータは1970年から2014年までの、男性の家計主で、30歳から59歳までの、労働所得である。年齢による所得の増加や、経済成長に伴う平均所得の増加をコントロールするため、まずは対数とをった労働所得のうち、年齢ダミー(30代、40代、50代)と毎年のダミーで説明できる部分を取り除いたあとの、労働所得の対数の変動率が、下に示されている。また、極端な値の影響を小さくするため、上下1%は取り除いている。
よく知られていることであるが、労働者個人の労働所得の変動率は1970年代から1980年代中盤までは上昇し、1980年代半ばから2000年ごろまでは安定し、その後再び上昇に転じている。これらのトレンドは、PSIDほど長い期間を見ることのできない(ので上のグラフの一部としか比較できないが)他のマイクロデータによって計算された変動率のトレンドと整合的であると著者らは述べている。

では、このようなトレンドを、一時的な変動率と恒久的な変動率にわけて、それぞれの変化を見てみたものが以下のグラフである。もちろん、2つの要素に分けるためには、あるモデルを仮定しなければならないが、著者らは、恒久的な変動としてはランダムウォーク、一時的な変動としては、深くは立ち入らないが、ARMAのようなプロセスを仮定している。どちらの変動率も、1970年のレベルを1に基準化している。アルファが恒久的な所得変動の変化率(1970=1)、ベータが一時的な所得変動の変化率(1970=1)を示している。
このグラフから見て取れるのは、恒久的な変動率も、一時的な変動率も、総変動率と同じような動きを示していることだ。つまり、1970-1980年代には上昇し、2000年ごろまでは停滞し、それ以降再び上昇に転じている。では、それぞれの変動率の実際のレベルを見てみたのが以下のグラフである。詳しくは、40代の男性の世帯主の労働所得の変動率の変化を示している。
1つ前のグラフでは両方の変動率を1970年のレベルで基準化したので、それぞれの大きさがわからなかったが、このグラフでは、一時的な変動率が総変動率の約3/2、恒久的な変動率が総変動率の約1/3を占めていることがわかる。両方とも同じようなペースで変化しているので、その比率は最近も大きくは変わらない。

一般的には、一時的な所得の変動は貯蓄や政府による所得再配分で対応でしやすいと考えられており、消費に与える影響は小さいと考えられている。とすると、消費に影響を与えるという意味で本質的に重要な恒久的な変動率は、特に最近のデータでは、総変動率に比べて低い水準にとどまっていることがわかる。

Are U.S. Mark-ups Really Increasing?

ちょっと前に、De LoeckerとEeckhoutによる話題のペーパーを紹介した。基本的な問題意識としては、アメリカ(や他の国)において、経済の「ダイナミズム」が失われつつあるのではないかというものである。例えば、企業の新規参入のペースは以下のグラフで見られるように、下がってきている(出典はここ)。新しい企業が経済成長をけん引するという考え方に基づくと、スタートアップの減少は、経済の「ダイナミズム」を失わせる要因になっているのではないかと考えることもできる。その他にも、別の企業に移る労働者の割合も減少傾向にある。


De LoeckerとEeckhoutは、上場企業のマークアップ率が1980年代ごろまでは18%程度だったのだけれども、2010年以降は60%を超えるレベルに上昇し、67%まで達したというデータを示した。マークアップ率というのは、簡単に言うと、(あるモノの価格)を(そのモノ1単位を追加的に生産するためのコスト)で割ったものである。もしマークアップ率が18%ならば、生産にかかるコストに18%上乗せした価格で商品が売れるということである。単純な経済モデルを考えれば、ある企業が何らかの理由で大きな市場支配力をもっていれば、その企業は生産コストを大幅に上回る価格を付けても競合他社に顧客を奪われる心配はない。よって、高いマークアップ率というのは市場支配力を反映したものだと考えることができる。彼らのペーパーは、アメリカにおいて大企業の市場支配力が高まっていることで、経済の「ダイナミズム」が損なわれているのではないかという議論を巻き起こしている。下のグラフが、De LoeckerとEeckhoutのメインの結果である。



前のポストで紹介したとおり、労働分配率の低下(GDPのうちの労働者の取り分)が低下傾向にあるのも、企業の価格支配力の上昇によって引き起こされているという理論は簡単に構築できる。

ただ、このペーパーに対して、彼らのマークアップ率の計算方法はおかしいんじゃないかという人が結構出てきている。このような主張をしているシカゴのビジネススクールのTrainaによる最新のワーキングペーパーの内容がわかりやすいブログ記事に出ていたのでこれについてメモしておく。彼も、De LoeckerとEeckhoutと同じように、アメリカの上場企業のうち、金融とユーティリティ(電気・水道・通信等)セクターを除いた企業のマークアップ率を計算してみた。大きな違いは、De LoeckerとEeckhoutはモノの生産コストとしてCost of Goods Sold (COGS)というデータを使ったのに対し、TrainaはOperating Expenses (OPEX)というデータを使ったという点である。COGSはモノの生産に直接関連する材料費や労働のコストだけを含んでいる。その一方、OPEXはCOGSに加えて、SGA(Selling, General and Administrative Expenses)も含んでいる。SGAは、英語からわかるように、モノの生産に間接的に必要なマーケティングコストや事務のコストを含んでいる。下のグラフは、De LoeckerとEeckhoutが計算したマークアップ率(赤、生産コストとしてCOGSを使っている)とTrainaが計算したマークアップ率(青、生産コストとしてOPEXを使っている)を比べたものである。

Trianaによると、生産コストとして、より包括的なデータであるOPEXを使うと、マークアップ率は1980年代以降緩やかな上昇傾向にあるものの、最新の水準は1950年代ごろの水準(15%)と変わらないことがわかる。つまり、マークアップ率は過去25年間上昇傾向にあるものの、その上昇の度合いは歴史的に見たことがないレベルでは全くないということである。

では、なぜこのような違いが生み出されているのか?それは、生産のコストにおける、SGA(マーケティングや事務のコスト)の割合がどんどん高まっているからである。上のグラフの緑の線は、OPEX(Trianaがマークアップ率を計算するのに使ったコストデータ)におけるCOGS(De LoeckerとEeckhoutが使ったコストデータ)の割合の変化を示している。1950年には狭義の生産コストであるCOGSは広義のコストであるOPEXの89%程度を占めていたが、その割合はどんどん低下し最新のデータでは78%程度しか占めていない。つまり、広義の生産コストで計算したマークアップ率はあまり大きく変わっていないんだけれども、狭義の生産コストを使うと、その重要性は時とともに低下し続けているので、マークアップ率は大きく上昇したように見えるのである。アップルのような企業を考えると、マーケティングのコストが重要になってきているのは、感覚的にわかりやすいであろう。

では、どちらのコストデータを使うのが正しいのであろうか?マークアップ率の計算に使うのは、固定コストを除いた、追加的な生産に必要なコストなのだけれども、SGAは固定コストも含んでいる可能性が高い。Trianaは固定コストが幾分SGAに含まれていることは問題ではないという証拠を示しているが、ちょっと細かい議論なので省略する。

関連したデータで、もう一つ紹介しておくと、Karl SmithはDe LoeckerとEeckhoutの計算を、マークアップ率の平均を取るときに、企業の大きさでウェイト付けをせずに計算してみた。つまり、彼の平均では、小さい企業のマークアップ率がより大きく平均に反映されているのである。下のグラフがその結果である。
赤の線がDe LoeckerとEeckhoutの結果に対応しており、黒の線が、企業のサイズでウェイト付けしない場合のマークアップ率である。面白いことに黒の方が上である。つまり、一般的な考え方に反して、小さい企業の方がマークアップ率が高いのではないか、と彼は主張している。彼の考えるストーリーは、ウォルマートのような大きな企業は価格を切り下げるのでマークアップ率は小さいけれども、小さい企業はある小さい市場に特化(例えば、クラフトービールのような感じかな)して、高いマークアップを維持できるようになったのではないか、というものである。彼の分析はCOGSによるものなので、COGSとOPEXの違いを考えると解釈も変わってくるかもしれないが、面白いので言及しておく。

今後は、別のやり方で計算したマークアップ率がでてきたり、どちらのコストデータを使うべきなのかについての議論が緻密化されたり、していくのだろう。そして、もし、マークアップ率があまり変わってないという結論に達したならば、なぜそれでも企業の利益が増加しつつあるのかという残された疑問に答える必要性が出てくるのだろう。

De LoeckerとEeckhoutのペーパーはそれでもトップジャーナルに行く可能性が高いらしい。データはちょっと怪しいかもしれないけれども、企業の市場支配力という視点をマクロの分析に持ち込むきっかけを作ったということが大きく評価されるのだろう。実際に、このペーパーはとてもstimulatingだと思う。このことを考えると、「何であれ君の得た結果は将来覆される可能性が高いのだから、正しいペーパーを書こうとするな。間違っているかもしれなくても、おもしろい新しい視点を導入し、その視点をできる限りサポートする方法を考えろ。」とある人に言われたのを思い出した。

Research Economists and Policy Discussion

@JS_Ecoha さんが、日本の経済学者の政策論争への関わり方についての日経大機小機を載せてくれていた(リンク)。そこでは、例えば、クルーグマンのような世界的に有名な学者が「消費税増税を急がなくても日本の財政には問題がない」と言った時に、日本(人)の経済学者からの反応がないこと、その理由としては、今の日本の経済学部はアカデミックな業績が重視されており、反論したところでアカデミックな業績にはならないことが挙げられていた。そして、もっと積極的に政策論争に参加するインセンティブを与えるために、アカデミックな論文だけで業績が測られる現状を変更した方がよいのではという提言で結ばれていた。これについていくつか思うところを書いてみる。

アカデミックな業績のある経済学者があまり政策論争に積極的でないとしたらそこにはいくつか根本的な理由があると思う。いくつか挙げておこう。

1つ目は、ある政策に様々な効果があるとすると、その様々な効果は大体において別々の論文で分析される。そうしないと論文はシャープにならないからだ。いろいろな効果があってその効果がいろいろな論文で別々に分析されている場合、それらの別々の効果にどれくらいの重要性を置くかは個人の「感覚」によるところが多い。それに、ある論文で計られた効果は、何かの前提におそらくは大きく依存しており、その前提を(どの程度)受け入れるか否かは、読む人によって異なると思う。加えて、多くの論文はアメリカ経済を前提に書かれているので、アメリカの結果を日本の状況でどのように微調整するかということも考えなければならない。クルーグマンのような人は、そこまで考えているはずである。そこで、クルーグマンのような人が、ある効果がより重要だと考えてある結果にたどり着いた場合、例えば僕のような何でもない人が、彼が重視していない別の効果は実はとても重要だと言いたかったり、日本においてはある結果は当てはまらないと議論したい場合、かなりの研究が必要になる。そして、そんなことやっても大したペーパーにはならないし、頑張ってやったとしても、多分クリアカットな結論が出ない場合も多いので、その場合クルーグマンはあっちの方が重要だと言っているのを信じている人の心を変えるのは本当に難しい。そんなことやってられない。

2つ目は、結局は、どの政策が「正しい」かは、結局どのような社会全体の幸福度を仮定するかによることが多く、その場合は、経済学者が出る幕ではないというのが挙げられる。社会の個々の構成員の幸福度をどのようにウェイト付けするかは第一義的には政治の(政治家が決める)問題である。こういう状況である政策が「正しい」と言っている人がいる場合、それは単に個人(論文を書いた人や意見を表明している人)の嗜好の表明に過ぎないことがほとんどだ。そのような状況で、例えば僕の仮定する社会の幸福度とクルーグマンのものが異なるとしたら、勝ち目があるわけがない。それに、政府とすれば、こういう状況で政府がやりたい政策を「正しい」と言ってくれる学者を重用したくなるはずなので、自分の考えが政府が欲しい結論と異なる場合、時間の無駄である。そんなことやってられない。

3つ目は、そもそも、経済学者が何か言ったところで、それが実際の政策に影響を与えるかというと、たぶん日本政府はそういう感じではないので、結局、無駄骨になるように感じる。日本銀行の政策委員なり、政府の審議会の委員なりをみれば、まぁ、ちゃんとした議論の結果政策に影響を与えられるような状況ではないような感じがする。そんな状況で政策論争なんかに時間を割いてはいられない。

では、最初に引用した大機小機で言っているように、政策に関与することも業績としてカウントするというアイデアはどうか?個人的にはいいアイデアだとは思えない。この場合、それぞれのジャーナルの価値が国際的に確立されているアカデミックな業績と、政策関連の業績との為替レートを決めなければならないのだけれども、政策関連の業績の価格が高すぎて今のようにアカデミックな業績はいまいちだけど政策について何か書く人が優遇されてしまうリスクが高すぎると思う。特に、政策関連の業績の価格が調整されるマーケットがない場合、政府によってその価格が高めに設定されて、今のように、大した業績はないけど政策について「分析」している人が高めに評価されてしまうリスクを恐れるべきだと思う。

アカデミックな論文だけが業績にカウントされるシステムがだんだん根付いてきているのは素晴らしいと思う(もちろんそういう状況に身を置いているのでポジショントークととってもらってよい)。個人的には、今でも、ちゃんとした業績もないのにいい職を得ている経済学者が多すぎると思う。マスコミに出ている人とか、本ばかり書いている人とか、業績はいまいちだけど政府に重用される人とかがまだまだ多すぎると思う。方向性としてはアカデミックな業績を重視する方向にだんだん向かっているので、そういう人が少なくなっていくのは時間の問題だと思う。日本の政策の議論に関連する研究があまり評価されない結果、その量が過少になるかもしれないという問題はあるものの、きちんとしたアカデミックな業績のある人が評価されるべきだと思う。きちんと国際的に評価される業績があって、説得力を持ってクルーグマンのような人に反論できる人でないと政策関連の議論をしてもしょうがない。

個人的には、政策関連の議論を活発にするためには、回りくどいやり方かもしれないけれども、以下のようなことが重要だと思う。
  1. データの整備。いいデータがあれば自然と論文も出てくる。アメリカやヨーロッパはもとより、例えば、今では、ブラジルとかも日本よりいいデータが誰でも使えるように提供されており、それを使って論文を書いている一線級の学者がいる。政府は、データを使いやすくするとともに、(ちゃんとした)経済学者に、どのようなデータがあれば、政府が必要とするような研究がより活発になるかを聞くべきだと思う。
  2. アメリカのCEA(大統領諮問委員会)のように、いろいろなキャリアのステージの経済学者を2年とかいうタームで雇ってもよい。
  3. マスコミが、ちゃんとした研究に、もっと注意を払うべきだと思う。消費税なり社会保障なりの分野は、今でも新しい論文が書かれているが、そういう新しい論文に注目したような記事はあまり見ない。
  4. 日本の経済学ジャーナルも、あるトピックで特集をしたり、あるトピックの学会を開いてConference Volumeを出したりすれば、政策に貢献できるかもしれない。アメリカでいえばJMEのCarnegie-Rochester(JMEがあるトピックの論文を募集して、学会を開き、その学会で発表された論文とその論文へのコメントがJMEに載る)やBrookingsの出版物(Brookings Institutionによる似たようなシステム)である。JMEとまではいかなくても、論文にできるとなれば、日本の政策論争にちょっとだけでも貢献したいと思っている人もいるのではないかと思うんだけれども。

Declining Labor Share

NBER Reporter(NBERに所属する研究者が自分の最近の研究の内容をテクニカルになり過ぎないように説明している刊行物)でLoukas KarabarbounisとBrent Neimanが、労働分配率の低下について書いていた(リンク)のでメモしておく。

労働分配率というのはGDPのうちどの割合が労働者に(主に賃金として)分配されているかを示している。普通は2/3くらいと考えられている。この割合が安定しているというのは、マクロ経済における重要な事実のひとつと考えられてきた。モデルで言えば、代表的企業の生産関数にコブ・ダグラス型の生産関数を使う根拠となっている。

しかし、最近の研究では、この割合が低下してきていることが示されている。GDPにおける労働者の「取り分」が低下しているというのは、所得不平等の度合いが拡大しているという事実とも関連している。労働分配率が低下するということは、直接あるいは間接的に企業を保有している人(大体は高所得者)に分配されうる所得が増えることを意味するからである。

下のグラフは、アメリカにおいて1975年以降の労働分配率がどのように変化してきたかを示している。赤の点線は経済全体の労働分配率、黒の実線は、法人企業のみの労働分配率である。企業のみの労働部分配率を見ているのは、政府や非法人企業の収入を資本の取り分と労働者の取り分に分けるのが難しいからであるが、どちらも同じように動いている。
経済全体の労働配分率は65%程度の水準から60%近くまで落ち込んだことが見て取れるであろう。この傾向は、アメリカだけではない。次のグラフは、日本、中国、ドイツを示している。いずれも低下傾向にある。
次のグラフはもっと多くの国について、1975年から2012年の労働分配率の変化率をまとめて表示したものである。
労働分配率が上がった国もある(たとえば韓国、ブラジル)が大半の国、特に先進国においては労働分配率は低下した。彼らは一連の研究において、この低下の理由を分析してきた。以下はそのハイライトである。

  1. 労働分配率の低下は大部分の国で起こっているので、ある国・地域特有の政策・現象では説明できない。労働組合が強い国(スカンジナビア諸国などの大陸ヨーロッパ)でも起こっている(労働組合の力の低下はどの国でも同時並行的に起こっていると思うのだけれども…)
  2. 労働分配率の低下の一部は、産業の構造変化(労働分配率が低い企業が高い企業に比べて拡大した)で説明できるが、労働分配率の低下は大部分の産業の内部で起こっているので、それだけではない。
  3. もちろん、産業の内部において、労働分配率が低い企業が拡大し労働分配率の高い企業が縮小したというストーリーは彼らのデータによって棄却されない。
  4. 彼らが重視しているチャンネルは、生産が労働を多く使うものから資本を多く使うものへシフトしたというものである。ちょうど、労働分配率の低下と時を同じくして、IT関連の資本の価格が低下した。もし、資本と労働の代替の弾力性が1を超えていれば、資本の価格が例えば1%低下したときには、資本を1%以上多く使う生産様式にシフトするので、収入のうち資本(労働)に支払われる部分が上昇(低下)し、労働分配率は低下することとなる。
  5. と言うわけで、重要なのは、資本と労働の代替の弾力性の大きさなのであるが、一国の中のデータを使うと弾力性の推定値は1を下回るものの、彼らがたくさんの国とたくさんのセクターのデータを使ってえた推定値は1.25であった。この弾力性の推定値を使うと、労働分配率の低下の半分は(ITなどの)資本の価格の低下によって説明できる。
  6. 残りの半分は何によって説明できるだろうか?企業のマークアップ率の上昇、それに伴う利益の増加、によるものではないか。
労働分配率の低下と関連している重要な結果として、企業の貯蓄が大きく増加したということが挙げられる。1980年ごろは家計の貯蓄が企業の投資に使われていたが、企業の利益が増加する一方、配当の伸びはそこまで大きくなかった結果、企業の内部留保は大きく拡大した。
上のグラフは、労働分配率が減少した一方、労働に分配される以外の部分がどこに行ったかを示している。資本への支払いや税支払いはあまり増加していない一方、企業の内部の貯蓄される金額は増加してきている。企業セクターが経済における借り手から貸し手に変わったことが経済全体にどのような影響を与えるかは今後の研究課題としている。

Raj Chetty in 14 Charts

ブルッキングス研究所が、Raj Chettyによる不平等についての一連の研究をあらわした14のグラフを特集していた(リンク)。それを載せておく。

1.アメリカでは所得で下位20%の親から生まれた子供が上位20%に到達する確率は7.5%であり、カナダの半分強しかない。

2.親の所得を0-100にランク付けし(X軸)と子供の所得も同じように0-100にランク付けすると(Y軸)、その関係は強く相関している。

3.所得で上位20%の子供の親がどの所得層(上位20%(紫)から下位20%(濃い青)まで分類)に位置するかを見てみると、その分布は1970年以来変わっていない。

4.それぞれの年に生まれた子供の所得が親の所得を超える確率は1940年生まれの90%から1980年生まれの50%まで低下した。

5.所得上昇の可能性は地域によって大きな違いがある。下のグラフは親の所得が下位25%の子供の所得がどのランク(薄い色はランクが高く濃い色はランクが低い)であるかを示している。南部と中西部では子供の所得のランクも平均的には低いが、それ以外の地域では所得上位に位置する子供も多い。

6.親が所得が変化しにくい地域から変化しやすい地域に移った場合、子供が若い時に移るほど、子供が結婚する確率も上がるし、所得や教育にも好影響がある。

7.ランダムに選ばれて住宅バウチャーを 受け取って「いい」地域に移った家の子供(濃い青)は、バウチャーを受け取らなかった家の子供(薄い青)より所得が高まった。

8.「よくない」地域で育った子供の所得に与える負の影響は男子のほうがずっと大きい。ボルチモアで育った男子の所得は平均より28%低くなる(女子は5%低下)。

9.貧困の中で育った場合の負の影響は男の方が大きい。X軸に親の所得のランク、Y軸に働いている人の割合(青は男性、赤は女性)をとると、青の線の方が傾きが大きい。

10.経験豊富な幼稚園の先生は将来の所得に大きな影響を与える。幼稚園で10年以上経験のある先生についた子の所得(濃い青)は経験が10年未満の先生についた子供の所得(薄い青)を上回る。

11.大学は親の所得にかかわらず子供の所得を大きく高めることができる。X軸は親の所得のランク、濃い青はエリート大学に行った子供の所得、青はその他の4年制大学に行った子供の所得、水色は2年制の大学に行った子供の所得である。どのケースにおいても、大学は所得の不平等を緩和する(所得の低い親の子でも大学に行けば所得が大きく上昇することが多い)役割がある。

12.しかし、高校卒業後すぐに大学に行くか否か(Y軸は18-21歳で大学に行っている子の割合)は親の所得(X軸がそのランク)に大きく相関している。

13.発明家(30歳までに特許を取った人とする)になる確率(Y軸)は親の収入(X軸がそのランク)に大きく依存している。

14.所得の違いは寿命の違いに強く相関している。青い線は男性の平均寿命、赤い線は女性のもの。X軸は所得のランク。所得上位の男性と下位の男性では平均寿命が10歳も違う。