2017年12月3日日曜日

イギリスとアメリカのPh.dの出願やシステムの違い等

この手の話はもう結構情報が共有されていると思うけれど、アメリカとイギリスの大学両方に出願した人間は珍しいかもしれないので、誰かの役に立てばいいなという感じで書いてみる。僕は統計学部にしか出願していないので、他の学部については詳しくは知らないけれど、まあどこもそこまで変わらないと思う。進学先はイギリスなので、アメリカの実際の博士課程での生活は知らない、体験してないので。大学名はいちいち書かないけれど、出願結果の打率は7割程度だった。三割ちょっとしか打てないイチローがその時は小さく見えました。

1 イギリスの博士課程の出願について。求められた書類は、成績表と、IELTSのスコアと、推薦書位だった。後で書くGREのスコアは任意だし、そこまで重要視されていないと思う。IELTSは6.5から7.5位が求められているレンジで、各セクション毎に最低点が課せられている。ただ英語のスコアが足りてなくても、条件付き合格をくれて、期間内にスコアが出れば正式な合格をくれるみたいな制度もあって、英語に関しては結構融通が効く。所謂GPAの明確な足切りラインみたいなのも無かった。まあでも暗黙の了解としてみんな出身大学ではトップ層だと思う。

イギリスの博士課程の大きな特徴は、日本と同じで修士と博士が完全に分かれているところにあるとおもう。経済学部だとアメリカ式の5年一貫の博士課程コースもあるみたいだけれど、これは例外。大学にもよるけれど、大体3年半から4年で博士課程が終わる。日本と違ってオーバードクターが延々出来るわけではなく、ある程度の期間で取得しないとキックアウトされる。これはオーバードクターしている学生が多いと、国からもらえる補助金が減らされるためだからだと聞いたけれど、定かではない。

またイギリスだと学部が3年、修士が1年で終わるので、日本の学生が学士を取るのと同じ期間で修士号を取れる。博士課程の出願に修士号は必ずしも必要とされないけれど、外国人は基本的にどっかの国で修士号を取得している。なので企業に就職したことが無く、学部から博士課程にそのまま進学してくるイギリス人の学生は22歳前後とかなので、兎に角若い。また修士課程も日本ほどありがたがられていないというか、ビジネス色が強いので、レベルはかなり低いと感じる。これは色々な国から来てる留学生も同じことを皆言ってるので、世界的に見てもやってる内容のレベルは低いと思う。生の人参を講義中にかじり始める傾奇者な学生もいた。

出願期間は割と長い期間あって、定員が埋まり次第その年の募集は終了する。合否の決断もまず習いたい先生にコンタクトをとって、その先生が書類などを見てインタビューをして、インタビューの結果、指導してもいいと思ったら学部レベルに話をあげる感じだった。なので入試委員会があるとかではなく、合否が先生毎に委ねられている感じだと思う。はっきり言ってこっちの先生とコネがあれば比較的簡単に合格できると思う。コネを作るのが難しいのだけれど。僕はコネつくりの結果、ゴマをすりすぎて指紋が溶けてなくなりました。

一番のネックは、大学の奨学金制度が全然充実していない所だと思う。学部は基本的に生活費や学費を出してくれない。EU圏の学生向けのは結構あるけれど、それ以外の学生向けのは殆どないので、基本的には自前で金策する必要がある。学部によっては研究室の先生が資金を持っている場合は、それから出してくれることもあるみたい。ただイギリスで修士号を取得すると、イギリスで応募できる奨学金の幅が色がるので、そういう理由でこっちで修士号を取る人もいる。Cash Rules Everything Around Me.

分野にもよるけれど、博士号を取得して企業に就職するキャリアが普通なことと、博士取得にかかる年数が比較的短いので、修士号の価値は相対的に低い。こっちで修士号だけ取得して、こっちの有名企業とかに就職できるとかは基本的には夢物語だと思う。学費も高いので、こっちで修士号だけ取得して得られるペイが、コストを上回るかと言われると、正直微妙だと感じる。履歴書を飾っていけ。


2 アメリカの博士課程の出願について。アメリカの大学への出願は兎に角大変だった。求められたのは成績表、Toefl ibtのスコア、推薦書、SOP、GRE generalとMathのスコアだった。まずイギリスの大学と違って、各スコアに明確な足切りラインがあることが多い。Toeflなら90点前後、GRE mathなら上位5%、GPAなら3.5/4.0とかそんな感じで明確に書かれていることが多い。大学によってはToeflの各セクションに最低点が設定されていることもあった。ちなみに僕はイギリスにきて4歳児が英語ペラペラで心が折れそうでした。

また日本やイギリスと違って、修士課程というものが基本的になく、5年一貫の博士コースしか博士号を取得する道はない。修士号をどこの大学で取っていようが関係なく、問答無用で5年一貫コースに入る。たぶん2年目に進級試験みたいなのを受けさせられ、その出来が悪いとキックアウトされると思うどこの学部も。最初の2年は必修みたいなものなので多分パスは出来ないのだろうけれど、あとの3年は論文さえかければ1年でも2年でもいいのだと思う。稀に超天才が3年とかで博士号を取得するケースを耳にする。以上の背景から、修士号=ドロップアウトなので、基本的に修士号だけ取得は残念賞扱いと話を聞いた。最近は修士課程も色々な学部で出来ているようだけれど、まあビジネスだと思う。MBA?言うまでもないですね。

また印象的だったのは兎に角"多様性"を入試の段階で重視することで、具体的には出願時に、人種、性別、信仰する宗教、親の年収、自分が思む自分の性別、軍歴の有無、性の対象となる性別等等、僕からすればどうでもいい事を兎に角聞かれた。特に州立大学だと、その州の出身者を優先的にとならなくてはいけないとか色々あるので、はっきりいってフェアな競争では全くない。例えばその年の定員が20人だったら、10人はアメリカ人で、半分は必ず女性にして、アジア系は3人までで、ヒスパニック系は何人で等など、自身のバックグラウンドに沿った枠の中で競争することになる。僕みたいな平凡な学生にとってはこれは結構死活問題だった。ワンちゃん改宗もありかもしれない。

またイギリスと違って、合格の裁量権が各先生にあるわけではなく、入試委員会が基本的にその年の学生の合否を決めている。まあ凄い先生に推薦書で押してもらえれば別に関係ないとは思うけれど、イギリスよりはあまりコネは効かないのかなと思うし、委員会の構成によって合否の結果も変わりそうなので、運に左右される部分も大きいと思う。己の運命力を信じて、願っていけ。

お金は基本的に合格=学費免除+生活費支給なので、イギリス程金策をする必要性は無いけれど、逆に言えば自前の奨学金を持って出願すれば学部が払うコストが減るので、合格する確率は高くなると思う。実際に最初は不合格だったけれど、日本での奨学金がその後もらえることになって、そのことを伝えたら合格になったケースもしっている。合否も交渉の余地が多分あって、僕も最初は修士までのコースしか合格しなかったけれど、他の大学で色々合格したことを伝えたら、結局博士コースで合格をくれた大学があった。行かなかったけれど、そんなことは僕の知ったことではない。



最後に話をまとめると、イギリスだろうがアメリカだろうが博士課程に合格したければ、いい成績をとって、各種試験でいいスコアをとって、いい推薦書を書いて貰う、これだけだと思う。とくに運命力と大事なのかな。願っていけ。

2017年11月19日日曜日

逐次モンテカルロ法(パーティクル・フィルター)について

僕は別に逐次モンテカルロ法(SMC)の熱心の信者というわけではないけれど,少し知識があるので覚書を書いてみる.簡単化のためにデータyが与えられた時の状態変数xのフィルタリング問題を例とするが,適用範囲はこの限りではない.

1 カルマンフィルターと比較して,SMCは非線形かつ非ガウスの一般的な隠れマルコフモデルを扱える.

2 MCMCとSMCとの違いについて.ターゲットが事後分布のときに,SMCは事後分布と共に周辺尤度も同時に計算できる.またこれらは各点で得られる.推定も名前の通り逐次的に行うので,バッチ推定ではなくいわゆるオンライン推定を行っている.計算コストもSMCの方が一般的に少ない.最終時点での分布のみに興味がある場合は各点での結果を保存する必要はない.バーンインの確認とか,ステップサイズはどうするのだとか,採択率をどの程度が最適だとかとか,そういったものも必要ない.あと分散のバウンド等もMCMCより比較的容易でかつシャープなものが得られていると思う.

3 SMCの基本的なアルゴリズムはインポータンスサンプリングとリサンプリングを逐次的に行うだけ.この組み合わせで色々できる.サンプリングを行ってリサンプリングを行うアルゴリズムより,リサンプリングを行ってサンプリングを行うアルゴリズムの方が推定精度はよい.数学的にはファイマン・カック方程式のある意味での近似として捉えられる.この解釈によってとにかく色々便利な数学的ツールが統一的にもたらされる.ちょっと具体的には,隠れマルコフモデルのフィルタリングの場合,ファイマン・カック・パス測度が事後分布にあたり,ポテンシャル関数がxを所与としたyの密度となる.

4 よく見かける誤解として,ブートストラップ・フィルターをSMCそのものとして紹介しているのを見かけるけれど,ブートストラップ・フィルターはSMCの一種ってだけであって,インポータンス・デンシティとして状態変数xが従う密度(マルコフ・カーネル)を用いたのがブートストラップ・フィルターとなる.この時ウェイトがxを所与としたyの密度となる.ウェイトは単なるラドン・ニコディウム微分なので,測度に関する絶対連続の仮定を満たせばインポータンス・デンシティとして別に何を使っても良い.

5 リサンプリングを行わない逐次インポータンスサンプリングは,サンプルサイズが増加していく毎に推定値の分散が指数的に発散していく.いわゆる劣マルチンゲール列になることが示すことができる.なのでサンプルサイズが大きい時に得られた事後分布の近似精度はかなりよくないことが多い.リサンプリングを行うとこの問題は消える.

5 しかしリサンプリングを行うといわゆる余計なモンテカルロ・エラーを加えるので基本的に推定精度は悪化する.なので各点で毎回リサンプリングをするのではなく,ある閾値(effective sample sizeを用いる)を越えたら行うようにするのが一般的である.またリサンプリングの結果として高い尤度を持つ同じ粒子がなんども選ばれて,事後分布の近似精度が悪くなる,Path Degeneracyと呼ばれる問題が不可避的に発生する.なのでパス全体に依存するようなSMCはサンプルサイズnが大きい場合に使い物にならなくなるので,そのようなアルゴリズムはなるべく避ける必要がある,粒子の数Nを各点で無限に増やせば数学的には必ず動くアルゴリズムだけれど,実際にはこのPath Degeneracyという問題はとにかく厄介.なので結局は原因は違えども,逐次インポータンスサンプリングと同じような問題にある程度は苦しむことがある.

6 リサンプリングを行うことによってシステムをリセットするような効果が生まれる.まず初期分布の影響は指数的に消える,また各点nで事後分布と周辺尤度の推定誤差をサンプルサイズとは独立に非漸近的にバウンドすることがきでる.このバウンドは基本的に次元が大きくなると緩くなる.これらをforgetting propertiesと呼び,リサンプリングを行う強い動機となっている.リサンプリングは長期での推定精度を保証するために,短期的に推定精度はある程度犠牲にする,いわば支払うコストみたいなものである.

7 SMCで近似された周辺尤度や事後分布は不偏推定量かつ一致推定量で,漸近正規性もみたすが,nに対する漸近理論とNに対する漸近理論を分けて考える必要性がある.基本的にはNに対しての漸近理論が多い.

8 感覚的には,逐次インポータンスサンプリングでは確実に起こる現象を,リサンプリングを加えることによって,SMCではアルゴリズムの工夫次第では何とかできるようになった位なもんだと思う.

9 SMCでパラメタの推定を行うのは難しい.SMCが周辺尤度の普遍推定量を与えることを利用してMCMCを組み合わせて行ったり,SMCをネストして用いて推定したり,Robbins–Monro型のアルゴリズムを利用した方法等が考案されている.

10 高次元での振る舞いは未だよくわかってないことが多い.ブートストラップ・フィルターの場合はある程度のレートで各点での粒子を増やせばある意味で安定することは示されているけれど,まあ自明な結果だと思う.

11 MCMCよりは容易に並列計算が行えるので,計算速度はある程度はやい.例えば LibBiというソフトでは,前述したSMCを用いた状態空間モデルのパラメタ推定を結構高速に行ってくれる. 

12 SMCに限らず,モンテカルロ法は積分を近似する手法であって,別にフィルタリングやスムージング等だけに応用されるものではない.例えばSMCを用いてナヴィエ・ストークス方程式を解く,みたいな応用研究も存在する.

2017年11月18日土曜日

どうでもいい予測の意味の違い

(統計的)機械学習で使われるモデルはブラックボックスなので、予測は上手くできるかもしれないけれど、なぜそうなったかは説明できないし、例えば将来何かルールが変わったときに、人々がどう行動を変えるのかを説明できないという批判を主に経済学のとある分野に携わっている人がしているのをよく見かける。結論から言うと、who caresじゃないのかな。

程度に差はあるけれど、まずアルゴリズム自体にはある程度数学的な基礎付けがある。MCMCやLASSOみたいに上手くいく理由がきちんと数学的に説明できるものもあるし、古典的な変分ベイズみたいにKL最小化が結局何を意味してるんだとか、他にもディープホニャララみたいに実証的に上手く働くのは分かるけれど、何故なのかはイマイチわからないとかそういう部分は多分にある。まあでもそれらの数理的な側面はこれから研究されて明らかになっていけばいい重要なトピックだと個人的には思うし、それに異を唱える人もそういないと思う。

なのでここでいうブラックボックスとはデータ生成過程そのもについての理論がないと仮定して話をする。

まず一部の経済学者が、何故を自分たちは説明できると思っているようだけれど、それは外からみればデータ生成過程が何らかの経済学の理論の結果として得られるものだと仮定してるからだと映る。その理論が正しい保障がそもそもないし、そういう理論の妥当性の検証をするのがエコノメの役割だったと思うのだけれど、何故か正しいことは所与として解析を行う構造推定だとかなんだとかいうのが流行っているらしい。経済学のコミュニティ内でそういう意味付けが求められるというのは分かるけれど、データ科学のコミュニティではそんなに求められてはいないと思う。コミュニティに近いエコノメ理論家ですら彼らが何をやってるのかよく分からない人が多いんじゃない。

勿論データ科学でもデータ解析をするさいに使う手法を決めるのだから、暗にある程度はデータ生成過程に仮定を置く。iidだとか隠れマルコフだとか用いるプライアーだとか。そのうえでどのモデルが良くフィットするのだとか、チューニングパラメターをどうすればいいのだとか、どのアルゴリズムが上手く働くだとか、そういった議論は客観的、実証的な側面から文脈をかえて活発に行われているし、一つの大きな研究トピックだと思う。

構造推定の裏にある理論の妥当性を信じない人達から、何でそのモデルが妥当だと言えるのか、何で様々なモデルをフィットさせてみないのかと聞かれたら、多分この分野の人達は外の人を納得させるような議論は出来ないと思う。アウトプットが上手く今あるデータを説明出来てるから正しいんだと言うならば、本末転倒だし。これは別に批判しているわけではなく、殆どの人はそんなことは気にしてないのではというだけである。

将来何かしらのルールが変わったら、その時にまた推定、学習させて予測すればいいだけで、何で現在において起こるかどうかも分からないことを想定した、反実仮想実験みたいなことをする必要があるのか、大体の人には分からないと思う。第一、例えば将棋で二歩が出来るようになったとしたら、棋士ですら将来自分がどう戦略を変える分からないと思う。フェアな例えではないかもしれないけれど、将来サッカーでキーパー以外も手を使えるようになったらどう戦略がかわるかなんて、考える意味すら希薄だし、誰が分かるのだろう。

想定外のことがおきたら、プログラムも予測できなくなるけれど、人もできなくなると思う。なのでそれが俺達は出来ると言える意味が良く分からないし、だからそれが強みだと言われても、違うコミュニティでは受け入れられ辛いと思う。過去のことについて、あの時AではなくBをしていたらCではなくDになっていただろうとか、その程度のことは強い仮定の下で言えると思うけれど。

僕が知っている限り、今のデータ科学で求められてるのは、なるべく少ない計算コストで精度よくデータなりモデルなりを予測・近似する手法で、特に実際にデータ解析をしている人程そういう思考が強い。MCMCでさえ正しいのは分かるけれど高次元だと計算が遅いから、と言われて現場では毛嫌いされている。無限っていつだ?と真顔で聞かれる。なのでサンプルサイズやパラメータの次元が1000とかその程度で、一回の推定に一週間だとか時間がかかって、かつ予測・近似精度が格別にいいわけでもない手法なんて、はっきりいって誰も気にしない。勿論使える状況もあるだろうけれど、いわゆるビッグデータの解析には全く向かない。良く分からない理論を所与として得られるデータの意味付けなんかも、やはり誰も気にしていないと思う。


最後に話はそれるけれど、アルファ碁は動学構造モデルの計量経済学における最高の成功例であるという主張をみた。同じ基盤技術を使ってるというだけで、多分野での研究成果を、自分が関わってる分野の研究の成果みたいに表現して、本当に下劣だと感じた。ディープマインドとかで同じ発言を是非してみてほしい。

自分たちの研究分野や研究成果を誇りに思うのは重要だと思うけれど、それが他のコミュニティでも当然受け入れられるだろうと思うのは自惚れだと感じる。


2017年5月25日木曜日

日本では受動喫煙が原因で年間1万5千人が死んでいるらしい

最初に断っておくが,僕はキッズだった頃にイアン・カーティスというミュージシャンの写真を見たことをきっかけに喫煙を始めた頭の弱い子であり,そして別に喫煙が人体に悪影響を及ばさないと主張するつもりはない.また専門は計算機統計学なので,生物統計や統計的因果推論が専門というわけでもない.疫学なんててんで分からない.またすべての文献に目を通す暇もないので,間違いなどもあると思う.その時は指摘してくれるとうれしい.

まず疫学が正直何だかわかないので色々ググってみたところ,かちっとした定義が見当たらず,色々な意見を総合してみると「データを用いて疾病罹患や病死の因果関係を研究する」みたいな感じでいいのかなと思う.なのでここではそういう学問だと定義しておく.まあ多分いわゆる統計的因果推論が最近は多様されているのだろう,多分.

タイトルにあるように,なんでも受動喫煙が「原因」で年間に約15000人の方がその「結果」として亡くなっているらしい.なので建物内禁煙を徹底すべきらしい.実際このような https://www.nomoresmoke2017.com/ キャンペーンサイトもできている.他人のことを考える誠に美しい日本の心を体現している,とても素晴らしいサイトと賛同者の方たちだと思う.生物統計の専門家の名前が見受けられないのが気がかりだけれど,そんな些細なことはどうでもいいのだ.気持ちと道徳が大事. 

そういうわけで,この主張の根拠となっている論文を読んでみる.当然そこには「原因」と「結果」が鮮やかに描写されているに違いない.だって賢そうな人たちがキャンペーンはってるし,何とあの乙武さんも賛同している!僕は乙武さんの大ファンである.彼こそ男の中の男であり,何時までも政治ゴロをやってないで,女体満足という本を出版すべき存在なのだ.


 元の論文はhttp://mhlw-grants.niph.go.jp/niph/search/NIDD00.do?resrchNum=201508017A にある"受動喫煙と肺がんについての包括的評価および受動喫煙起因死亡数の推計 " というタイトルの論文のようだ.同じ著者が書いた,同じような論文がこれ http://www.hws-kyokai.or.jp/images/ronbun/all/201011-3.pdf .2つの論文とも国立がん研究センターがん対策情報センターの片野田耕太さんという方が中心に書かれているようだ.システマティック・レビューという手法を用いて研究されたらしい.まあ要はメタアナリシスだ.426本の論文が対象となり,最終的には9本の論文が選ばれたらしい.「精査」されたわけだ.何か精査する客観的な基準でもあるのだろうかと疑問が浮かぶが,まあ取り敢えずは良しとする.

まず大事なことはこの論文は受動喫煙は間違いなく例えば肺ガンを引き起こすリスクを高めると,因果があることを前提で議論を進めている.実際著者も論文で"受動喫煙との因果関係が国際的に明らかな肺がん、虚血性心疾患、および脳卒中について・・・"と述べている.なのでこの論文は因果の有無を確認する類のものではそもそもない.そしてメタアナリシスをしているけれど,質の高いRCTなどの研究を何個も集めてそれを対象に行えば説得力もあるが,質の低いコホート分析等の研究をいくつまとめてメタアナリスを行っても,説得力は皆目ない.ゴミを集めても新しいゴミが出来るだけだ.はっきり言うが,この論文はゴミを集めてそれをエビデンスと呼んでるに過ぎない,とても質の低いものだ.受動喫煙を対象にしてRCTを行うことは非常に困難だと思うけれど,統計的手法で因果を述べたいのならきちんとするしかない.例えば因果関係の識別に兎角うるさい経済学系のトップ・ジャーナルにこの論文を投稿しても,間違いなく掲載許可されないと思う.


次に推計方法を見てみると,能動喫煙の人口寄与危険割合というものと,非喫煙者における受動喫煙の人口寄与危険割合というものを求める必要があるらしい.定義はそれぞれつぎの様にして与えられる;
( ゜Д゜)正直何のことだかさっぱり分からない.これが疫学というものだろうか.なので頑張って勉強して何とか理解してみる,と思いググってみたらつぎのブログ http://d.hatena.ne.jp/NATROM/20170517#20170517f1を見つけたのでこれを参考にしてみる.


まず曝露とはここでは受動喫煙のことをさし,曝露源とは受動喫煙が行われた場所をさす.この研究では男性女性について曝露源としてそれぞれ職場と家庭を考えているようだ.まずは女性のケースで受動喫煙と肺ガンの関係を例として考えてみる.まず必要になることは,ある年に肺ガンで亡くなった方のうち,一体どれ位が喫煙していたかを知ることだ.しかしこの具体的な数字を知るのは不可能で,実際には「推計」を行う.このためにはまず女性の喫煙率を求める.この論文では厚生省の「国民健康・栄養調査」というアンケートデータを用いて,1999~2008年の10 年間の平均値を推計値とし,約10%だったらしい.これを論文では「能動喫煙の曝露割合」と呼んでいる.

次に能動喫煙の相対リスクを求める.これは僕には因果関係を所与としている様に映る.何故ならこの変数が意味するのは,喫煙をしない女性に比べて,する女性が肺ガンで死ぬリスクは相対的に約2.8倍高いことを意味するからだ.マヨネーズでも唐揚げでも飲酒でも黒点の数でもなく,喫煙によってそうなるらしい.へぇ?.この2.8倍という数字は「メタアナリシス」の結果得たらしい.はーん?.この様な数字を取り敢えず用いると,肺ガンで亡くなった女性の中で,喫煙者が占める割合が約23.7%だと分かる.肺ガンで亡くなる女性の数を約20000人とすると,以上の計算結果から約4700人が能動喫煙者で,残りが受動喫煙者ということりになる.繰り返して言うが別にこれは何ら因果を示していない.単なるゆるふわな推計と簡単な集合論の話である.

次に残りの15300人を考える.まずある「アンケートデータ」によると,日本人の女性が家庭で受動喫煙をする割合は約30%らしい,そして「メタアナリシス」の結果によると,その肺ガンによる相対リスクは約1.3倍らしい.クラクラしてくる.全体を100とすれば,これらの数値は8.3%が非喫煙者の肺ガン死における受動喫煙を経験した人間の割合であることを意味する.なので15300×8.3%で1300人が,家庭で受動喫煙を経験したと考えられ,かつ肺ガンで死亡した人が占める割合である.しつこいくらいにいうが,別にこれは因果を意味していない.

以上の様な計算を,男性,女性,受動喫煙を経験した場所(曝露源),病名を変えて繰り返し行い,足しあわせた結果が年間15000人という数字だ.1つ強調したいのは,この数字を求める際にはメタアナリシスの結果だとか,アンケート調査の結果だとかを兎角用いている.決して頑固な因果関係を示そうとした研究結果に基づいて得られてものではない.


僕が感じた問題点をまとめると次の様になる.
1 この論文はそもそも因果関係を前提としている.故にこの論文を元にして因果関係を述べることはできない.

2 メタアナリスの対象となった論文もRCTなどを行った類のものではなく,はっきりいって質の低いコホート分析を行った様な論文ばかり.

3 推計手法や用いているデータも少なくとも統計学の範疇では妥当とはいいにくい.

4 どんなに好意的にこの論文を解釈しても,せいぜいある種の病気で亡くなった人のうち約1万5000人が受動喫煙を経験したと考えられる,位のものである.これらの中には猫好きやマヨネーズ好きや偏食な人も居ただろうけれど,何故それらが原因と考えられないのか定かではない.

5 故に当然,受動喫煙が理由でその結果として毎年1万5000人が亡くなってるとはいえない

これがエビデンス・ベースによる政策運営ってやつならば糞食らえである.一般人がそういうのならば別にいいけれど,学者が言ってるのならば一体何を学んできたのか問いたくなる.この手の手法に全く明るくないのならば口出しすべきではない.

個人的にはこの手の主張をする人たちが,なぜデータ科学の手法に固執するのかが分からない.悪手に僕には映る.嫌いな人が多いし,ヨーロッパ諸国もそうしているから,悪いけれど僕たちもそうしないか?でいいと思う.

またこの手の研究に異様にメタアナリシスが多いのもきになる.某先生も仰っているが,メタアナリシスが効果的なのは各論文が例えばRCTを行った場合など,それぞれの妥当性が担保されている時に限る.いくら質の低い論文を集めても,質の低い結果が出てくるだけで,普通科学者のコミュニティではその結果は信用するに値しないと判断されるだろう.

重ね重ねいうが別に僕は受動喫煙が人体に悪影響を及ばさないとは主張してない.ただその因果関係はいわゆるデータ科学的には未だ実証されていないと言っているに過ぎないので悪しからず.


追記

1 僕のこのブログを呼んで僕がRCT至上主義者だと思った人もいる様だけれど,それは違う.実際RCTこそ最強であるなんて書いてないし,主張したこともない.そう読んだ人はまずは夏目漱石あたりから始めたほうがいいと思う.僕はただキャンペーン張っている人たちがエビデンスと呼んでいる論文が何ら因果関係を示していないと指摘しているに過ぎず,じゃあどうすればいいのかという1つの案としてRCTや擬似実験をあげているだけだ.何故統計的因果推論の話をしているのかは後で述べる.

2 そもそも別に僕は統計的因果推論の結果がそれだけでかっこたるエビデンスになると思っていない.どんなにうまく設計しても,この様な手法で推定されているのは基本的にはある種の条件付き期待値の差であって,それがAがBを引き起こしたと解釈できるか否かは数学は保証していない.また差が有意か否かだけで科学的決定を行う危険性も,アメリカ統計学会などから度々指摘されている.なので1つだけの研究に頼ることなく質の高い複数の研究を吟味すべきだと思う.もちろん質の低い論文は論外である.統計的手法にこだわる必要性もない.

3 じゃあ何故統計的因果推論や因果の話を僕がしているかというと,このキャンペーンの中心的な人物である,慶応大学の中室牧子さんと,ハーバード大学研究員の津川友介さんは,統計的因果推論の結果を主に強いエビデンス,因果だと言っているからである.僕は彼らの言うエビデンスの定義に従って,あなた方がエビデンスとしている論文はあなたがたが言うエビデンスになっていないと言っているだけだ.何故彼らは時にはRCTや擬似実験等の因果推論の結果をしっかりとしたエビデンスと呼び,ある時は単なるメタアナリシスの結果を強いエビデンスだと主張するのだろうか.本当に不思議である.

4 色々反論もある様だけれど,僕の主張は根拠としている論文が質の高いものではないと言っているだけだ,なので反論をしたければ,参照している論文の科学的・理論的妥当性をあげる必要がある.あるのならばの話ではあるけれど.

5 エビデンスベースの政策運営を徹底したいのなら,個人の好き嫌いや道徳的直感は忘れるべきである.科学者ならなおさら.自分が嫌煙家だからだとか,自分がこう思うからだとかは関係ない.私は嫌煙家だが,この論文は信用するに足らないとある先生が仰っていたが,これが正しい姿だと思う.

6 疫学系の人が統計的手法にあまり明るくないのは承知しているけれど,もし上の論文をよんでしっかりとした因果関係が示されていて,強い政策を実施する根拠に十分になりうると感じたのならば,僕はちょっと色々と大丈夫かなぁと思う.少なくとも表に出てきて欲しくない.真面目に統計学のある分野を研究・勉強している身としては,統計学やデータ科学の学問としての価値が毀損される可能性があるので迷惑でしかない.