UA-115498173-1

2018年06月16日

シンギュラリティなるもの

今の時期はいろいろな会社のカンファレンスが目白押しで,先日もIBMの統合イベントに参加してきました.去年まではクラウド系のイベントとWatson Summitという別のイベントを分散して開催していました.クラウドあってのWatsonで参加者も被るでしょうから自然な流れとはいえます.私自身はクラウドでシステムを構築するような仕事はしませんが,コンサルテーションでときどきこういった知識が必要になることもあります.前日にはデベロッパー向けのイベントも開催されて,私もその端くれとして参加しました.IBMはデベロッパーを育て,スタートアップ企業を支援する懐の深い会社と毎度のように感心します.今年はこれらのイベントを「Think」というキーワードのもとに一つに統合しました.
Thinkと言えばIBMがThinkPadをレノボに売却したのが2005年,あのときから今のクラウドの時代を見据えていたとすれば,先を予測することがいかに重要性なのかがわかります.とはいえ,7年間にわたって米IBMと一緒に仕事していたわたしにとって,昔のIBMが変わっていくのは寂しい気もしています.少し前に当時の同僚というかルームメイト(あちらでは執務環境として個室あるいは2人部屋が与えられていました.)と連絡とりあったら,彼はもう半導体には関わっていないでIT関連のマネージャーをやっているとのことでした.
少し前にBOXのイベントもあってそちらにも参加してきたのですが,そこにIBMが出展していたので「呉越同舟」なのではとも思いましたが,聞けばIBMはプライベートクラウドとパブリッククラウドとをわけて考えていて,それらを統合したハイブリッドクラウドが自社の強みと考えているようです.確かに大企業では既にクラウド上で構築したシステムが稼働しているでしょうし,セキュリティ面でも現実的なソリューションだと思います.
基調講演はこの4月に社長になったばかりのエリー・キーナンさんからスタートしました.前のポール与那嶺さんは米国籍の日系三世とのことで日英語ネィティブなので流暢な日本語で話されていましたが,キーナンさんは英語です.とはいえ大変聞きやすい英語で,しかも話し方がうまいですね.その後に登壇した某日本企業の講演が原稿を読んでいたのに比べると対照的でした.BOXのCEO兼共同創業者のアーロン・レビーさんの講演も自分の言葉で話していることがよくわかりました.何よりもお二人のスピーチは勢いがありました.これに比べると,日本人の講演はリズムが感じられません.自らの話し方についても反省するところあります.
セッションの講演内容はここでお話しするには少しズレているのでやめておきますが,一つだけ言及しておきます.電気通信大学大学院 人工知能先端研究センターの坂本真樹先生の「AIの進化・ビッグデータ活用がもたらす近未来予想」に興味があり,会場もキャンセル待ちが出るほど人気だったのですが,一般人向けの市民大学講座というような内容で,あのイベントにくるレベルの人には少し物足りない内容でした.第3次AIブームとかはどうでもいいので,ご自身が研究されている「感性」に関するお話を中心にして下さったほうが面白かったと思います.気になったことが一つ.シンギュラリティを説明するくだりで,AIが人間を超えるとかAIによって職を失うとかの危機感をあおるマスコミ論調が垣間見えたことが気になりました.
シンギュラリティは特異点ですが,この文脈で使うシンギュラリティはレイ・カーツワイルが使いだしました.この人,神出鬼没というか得体のしれない天才です.その昔,わたしが入社して初めてのボーナス(+α)で買ったのがKurzweilという電子ピアノでした.Kurzweilはカーツウェルと呼ばれていたので最近まで気付かなかったのですが,Wikiによればなんでもカーツワイルさんがスティービー・ワンダーに乞われてKurzweilの電子ピアノを開発したのだそうです.YAMAHAやRoland,KORGでなく,なぜこのメーカーのものにしたかと言うと,圧倒的にピアノの音質が良く,しかも鍵盤のタッチが生ピアノに大変近かったからです.このKurzweilが故障して修理してくれたサービスマンにMacintoshを勧められて,それ故にJMPユーザーになって今に至るということを思い起こせば,カーツワイルさんがいらっしゃらなければこのブログを書いていることもなかったかもしれません.
私は自分のセミナーでもAIの話をすることがありますが,そこでシンギュラリティの話は避けて通れません.そこではシンギュラリティ(技術的特異点)とはAIが人間の知能を超える時点(2045年とされています)であるというマスコミの論調は間違いであること,正しくは人類の能力が無限大になる(特異点)であって,それにより生物的進化速度を技術(AI)で加速することなのだと言っています.著作をよむと彼は非常にオプチミストとわかりますから,AIは人類に明るい未来をもたらすものであって脅威にはなり得ないとお考えでしょう.Ray Kurzweil(2005),The Singularity Is Nearにはシンギュラリティ以降の世界として,脳のスキャンによるデジタル化とかナノボットで臓器が不要になるとか現時点ではSFの技術が出てきますが,五感全てを組み込んだ完全没入型のVRというのは最近ではSFとも言えないようになってきました.人間は騙すのは簡単ですから.
人間とAIの競争という点で言えば,人間がAIに囲碁で負けたと聞いて驚いても,人間がF1マシンに100m走で負けたと聞いて驚きますか?という点につきます.いわば負けるのが当たり前と思います.但し,消費電力は人間の脳が20WでGoogleのアルファ碁が25万Wといいますから,単位電力当たりでは間違いなく人間の勝ちです.最近はボタン電池で稼働する低消費電力マイコンなどもありますが,20Wでは一手指すのにどれくらい時間がかかるのか.名人戦のリーグ戦では5時間ある持ち時間もNHK杯戦では「なし」ですから.AIが電気的なスイッチでなく,人間の脳のような化学的スイッチを採用したコンピューターに実装されれば,そこらへんも変わってくるかもしれません.けれどこのときは,人間並みの遅さになるように予想します.もちろん,今の人間の脳が最適解というわけではないのですが..
私のセミナーでは,シンギュラリティにはじまって強いAI(あるいはAGI)へと展開し,今の時代の技術者はどうあるべきかをお話ししているのですが,今日は時間になったので,そのうちここで書こうと思います.
本日は完全に無駄話でした.それでは,また.
posted by Tad at 19:00| Comment(0) | TrackBack(0) | 雑記

2018年06月09日

なぜ系統的レビューに仮説検定は向かないのか?

先週の続きです.といっても,あの報告書には例の系統的レビューの詳細には触れられていないことが判明したので,続きは書けません.一般的に仮説検定の結果を系統的レビューに含めるのはやってはいけないとされています.もしも,ナラティブな研究をレビューしたのであったとしても,せいぜい表として提示するくらいにとどめておくべきで,それらを棒グラフ(即ち,量的な比例尺度の数値としての視覚化)にするのはやりすぎのような気もします.あの報告書からはそのへんがどうなのかは読めません.厚生労働省が背後についている研究会ですから,統計に詳しくない人々を黙らさせるために,あのような権威に裏打ちされたデータを提示したのかもしれませんが,いずれにせよ(禁煙派だけに)誤解を招くグラフなのは残念です.レビュー対象の論文を読んでいないのでこれ以上の言及は避けます.
ところで,系統的レビューの対象として仮説検定による研究が向いていないという理由は,例えば,こんなことを考えてみればわかります.タバコ産業関連以外の研究では「差がない」ことを示した研究が多いわけですが,その際の検定のロジックはすべての研究で同じであったのでしょうか.帰無仮説が棄却できなかったわけですから,そこから事後検証として検出力分析に移った研究もあるでしょうし,あるいは最初からJMPを使って「同等性の検定」を実行した研究もあったかもしれません.いずれにせよ,研究の取り組み方によって効果量をどのように見積もったのかが異なってくるはずです.おそらくレビュー対象となった研究には一つとして同じものはないのではないでしょうか.その他にも,有意水準,サンプルサイズ,検出力(これと関連して母分散)など,仮説検定にはその前提となった意識的,無意識的な条件が数多くあります.系統的レビューは一つ一つの研究報告がデータになるわけですから,それらから定量的な結論(例えば棒グラフ)を導くには本来は実験計画によるべきです.このような多数の因子に影響されるデータをモデリングする場合,サンプルサイズが大きければ多変量解析の手法も使えますが,86論文では微妙なところです.しかも共変量がないことを前提としますが,この場合それもちょっと怪しいです.
因みに,JMPでは「同等性の検定」実行すると「等しいと見なす量」Difference considered practically zeroを聞いてくるだけなので,右側と左側で検定を実行しているだけのようです.これは非常に現実的かつわかりやすい手法と思います.一般的には効果量を見積もってa posteriori(事後) 的に検証するわけですが,これがわたしにはどうも曖昧です.効果量は対立仮説が明確に定義できるという特殊な状況でのみ意味を持つように思うからです.ましてや,差がないことを確認したいのに,その効果を見積もらなければならないというのは抵抗があります.効果量がわからなければベータリスクは計算できず,従って検出力もわからないわけです.
しかも,効果量にもいろいろ定義があってCohenのdとかHodgesのgとかが有名ですが,他にも二つのサンプル間の相関を補正したものなど様々な指標があります.社会心理学の学会誌のBASP(Basic and Applied Social Psychology)がp値を使った研究の投稿を受け付けないと発表したのをきっかけとしてでしょうか,仮説検定という手法には逆風が強い昨今です.以前と比べて効果量に言及した論文が増えてきているようです.
わたしはBASPの決定について少し疑問に思うところがあります.ある会社でカッターを使用中に怪我をした人が出て,以降その会社ではカッターの使用が禁止されてしまったそうです.カッターというツールで怪我をすることを心配するならば,それを必要とする行為がなくすか,まずは怪我をしないようなツールの使い方を徹底させるべきです.そうでないとハサミで怪我をすることになります.
BASPのp値禁止例は苦渋の決断であったことが文面から読み取れますが,ここに書いてある代替手法を使ったとしてもすべてがクリアになるわけではありません.このQ&Aに書いてあるように,信頼区間もダメでベイズも積極的にはすすめないということであれば,何を使えばいいかというとstrong descriptive statisticsとのことです.そしてこの中に効果量の算出も含まれると.サンプルサイズが正義というのは社会心理学的にはそうなんでしょうけれど,少ないサンプルで開発をしていかなければならない技術者の立場からは違和感があります.社会心理学であっても,サンプルサイズを大きくするには費用もかかるのでそれこそスポンサーの有無が研究結果に影響を及ぼすことになりかねません.p値のかわりに効果量を使うだけならば,カッターを禁止されてハサミで怪我をすることになるだけではないでしょうか.
昨今のp値をめぐる議論については,わたしは技術者の立場からは以下のように考えています.従来通りp値で検定して,その結果を効果量で検証して両者の結果が食い違ったならばそのことを明確に報告し,必要であれば追加で実験をする.その際に,仮説検定のロジックは完璧に理解しておくべきです.心理学と違って技術者があつかう問題は通常シンプルです.素直な仮説検定が有効に使える事例も間違いなくあります.他の分野では「仮説検定は使いものにならないから禁止する」というのはある意味正しいのかもしれませんが,そういうノイズに惑わされることはありません.その上で,仮説検定は主観的な意思決定のツールなのだという認識が必須です.主観的に許容するType Iエラーとして有意水準をスタートに置くのだから,たとえ「差がある」「差がない」という定性的な判断であっても,そこに主観が入り込んでくるのは避けられないのはむしろ当然ですよね.
思いついたことをそのまま文章にしているので,なんかまとまりなくてすいません.それではまた.
タグ:統計学 JMP
posted by Tad at 19:00| Comment(0) | TrackBack(0) | Stat Spotting

2018年06月02日

サンプルサイズ1で予測する先が読めていない一部の人々

先日,何かの拍子に「Stat Spotting」を検索したところ,日本語ページではここがトップに上がってきて驚愕しました.ジョエル・ベスト(2011)『あやしい統計フィールドガイド』,白楊社では,スタット・スポッティングとカタカナ表記であることが,本家を差し置いてしまった要因と思われますが,そもそも日本語では馴染みがない言葉だからということも理由の一つにあるのでしょう.
このブログでもカテゴリーに登録したもののなかなか記事が書けないStat Spottingですが,実はネタはゴロゴロしてはいるのですが,それらを題材にして記事を書くのはなかなか難しい面があります.それはなぜかというと,基本的にクリティカルな考察に基づくので,誰か(たとえそれが法人であっても)を批判することに繋がってしまうからです.しかもこちらは後出しジャンケンで有利ですから卑怯な真似はしたくない.いえ,別に戦っているわけではないんですけど.
そいうわけでオリジナルの論文にも目をとおしたネタがいくつもあるのですが,掲載を控えております.そんな中,最近目にしたのがこちらの記事です.
大西英男議員の事務所から受けた、受動喫煙記事への抗議に対する回答最初にいっておきますが,この記事を批判するわけではないです,これをきっかけとしてあることを言いたいだけです.この記事はダイヤモンド社の書籍オンラインの連載の最新のもので,いつかここでも紹介した中牧先生と津山先生との共著である『「原因と結果」の経済学』がテーマです.お読みになっていただければわかりますように,受動喫煙について衆議院議員とやりとりした経緯が書かれています.著者が受動喫煙規制推進の立場で,議員がそれに待ったをかけている側です.疑問4のところに出てくる「「自分の周辺エピソード」で政策を形成する前時代的な一部の国会議員たち」という表現はうまいですね.わたしなら「サンプルサイズ1で予測する先が読めていない一部の国会議員たち」とでもいいましょうか.
受動喫煙防止に関する議論を深めることは公益に資するというのは全くそのとおりと賛同します.とはいえ,このブログではその議論には踏み込みまず,「疑問1 受動喫煙規制で売上が下がった飲食店の意見は無視か」について言及します.この論点では,受動喫煙対策を推し進めると飲食店の売り上げが減るのではないかという仮説の検証がポイントになっています.実際,この議員の言うように売り上げが減ったお店もあったのでしょうか.そういうクレームには「そんな小サンプルのデータからでは何もいえません.」と返せばいいのですが,真面目にIARCによる系統的レビューの結果を紹介してくださっています.
更に,別の先生がこのレビューにタバコ産業との関連性という因子を導入して視覚化したグラフも掲載されています.このグラフがStat Spottingの双眼鏡の中に入ってきました.このグラフによれば,タバコ産業に研究助成を受けている研究結果ではタバコ産業に都合の良い結論が多いのは間違いないようです.この手の研究が食品業界に多いのはよく知られています.事実,アメリカに住んでいたときに**は健康に良いという類のときにとんでもニュースを度々目にしました.そういうニュースのソースはその食品業界の企業がスポンサーとなっていたり,あるいは自社の研究であることも批判されていました.とはいえ,このこととは別にして,アメリカの企業には社会に貢献するという意志が感じられるのは,素直に素晴らしいと思います.(もちろん,データの捏造はしていないということが前提です.)統計学でも有名なジョージア工科大学には当地の有力企業であるコカ・コーラがスポンサーになっている講座があると聞きました.だからといってコカ・コーラが健康に良い(胃閉塞の治療に使われているとどこかで読んだ記憶があります)などという研究と関係があるのかは不明ですけど.
念のために言っておきますが,わたしはタバコが苦手です.その昔新幹線に喫煙車両があった頃には喫煙車両の隣の禁煙車両も避けていたくらいです.(今でもわざわざ喫煙室から最も離れた席に座ります.)このため,乗れる号車が少なかったので苦労しました.こんなことを申しますのも,これからこのグラフに疑問を呈するので,喫煙者と思われるのが心外だからです.この系統的レビューのグラフの解釈に違和感を感じています.わたしには,このグラフから「質と中立性の高い研究のほとんどが、受動喫煙規制が売上に与える負の影響はないと結論付けている」とは言えないように思えます.タバコ産業の助成を受けた研究であってもデータの捏造まではしていないとすれば,このグラフから言えるのは「研究結果はスポンサーとの関連性という因子の影響を大きく受ける」ということに過ぎないのではないでしょうか.WHOの研究所で「厳密で科学的な方法」と認定された研究ですから,タバコ産業の関与があったとしても質的には高い研究であるはずですし,中立性という点ではタバコの健康被害を懸念する研究者の研究も中立ではないでしょう.(良い方向とはいえどもある意味でバイアスしているので.)
このようにグラフにしたことで視覚的に訴える力は強力なので,このような見せ方をするならば,系統的レビューの統計手法に焦点を当てたメタ分析にまで突っ込むべきと思います.オリジナルのIARCによる系統的レビューがどちらかというとナラティブなレビューに留まっているのはなぜか.例えば「有意性」という言葉は一箇所しか出てきません.このグラフだけでは,一次研究の統計手法にまで立ち入って新たにメタ分析をしたものなのか不明で,この記事ではそこには触れられていないので,おやっと思いました.
ここからはこの記事を離れてあくまでも一般論ですのでご注意ください.そもそも「厳密で科学的な方法」により導出された結果にどうしてこのような大きな違いがあるのでしょうか.系統的レビューやメタ分析の対象となる一次研究ではその多くに仮説検定が使われています.仮説検定はもちろん科学的なデータ分析の手法ですが,メタ分析の素材としては不向きなのです.というのも,ご存知のように有意水準の設定によって結果はいかようにも変えることができるからです.(誤解のないように言っておきますと,実験後に有意水準を変えるのはもちろんご法度ですが,実験前に予め意図的により厳しくあるいは緩く有意水準を決めるのは合法です.)有意水準であれば,まだ0.05というしきたりを踏襲することで結果に普遍性をもたらすことはできるかもしれません.特定の研究分野で有意水準が慣習的に定まっているケースとして,素粒子物理では有意水準は3x10^−7といいます.ノーベル賞候補の研究だと騒ぎになって,実は間違いでしたでは済まされないからなのでしょうか.
しかしながら,有意水準はまだしもサンプルサイズはすべての研究で揃えるわけにはいかないでしょう.例えば,t検定ではt値の分母は標準誤差ですからサンプルサイズのルートに反比例します.サンプルサイズを大きくすれば有意性が出しやすくなるといわれる所以です.とはいえ,こういうことをもっともらしくいう人は実務を知らないのかもしれません.実務ではサンプルサイズを大きくすると様々なノイズが混入してきやすくなり,それらが有意差を見えにくくするという影響もあるので,サンプルが大きければどんな有意性でも出せてしまうというのは言い過ぎと思います.平均の回帰という統計現象も考慮すべきという説もあります.技術者としては,サンプルサイズが少ないと有意差が出せないことのほうを危惧すべきです.タバコの例でいうならば,むしろ資金の少ないであろう中立の研究で必要な検定力に足るサンプルサイズがあったのかを確認すべきです.
技術者の場合,その検定結果を使って意思決定するのは自分ですから,有意水準にせよサンプルサイズにせよ二種類の過誤を自ら引き受けて決めればいいのですが,社会科学における検定ではその覚悟は研究の立場によって変わってきます.例えば,受動喫煙の健康被害を食いとどめるという志の高い研究者であれば,(有意差を示したくない研究では)ベータリスクが大きくなることを覚悟してアルファリスクを小さくするでしょう.結果としてタバコ産業に厳しい結果になるはずです.タバコ産業に支援を受けている研究者であれば,もしかしたらベータリスクが大きいことのほうを気にするかもしれません.このように厳密に科学的な手法であっても,仮説検定にはそこにある程度の分析者の意思(決意)がはいってくることは避けられないので,それらの総意をメタ分析として抽出するのはよろしくないのです.
社会科学的な実験では,サンプル抽出においても非サンプリングエラーを皆無にするには極めて困難です.(調査を覆面でやったりするとか,低減する手段はいくつもありますが,そうなると回収率が悪くなるとかの問題も出てきます.)このような実験デザインにも研究者の熱意というパラメーターが入ってきます.例えば,その熱意が人々の健康のために向くか,スポンサーのご機嫌とりに向くのかによって検定の結果が変わってしまう.ですが,どちらも厳密に科学的な手法による結論には違いありません.
何が言いたいかというと,系統的レビューにおいては,すべてのデータを統合して結論を導くのが基本だと思うので,タバコ産業との関係のありなしで研究を層別化するのは,趣旨にはずれているのではないか,ましてやそれらをはずれ値として除外して結論を出すのは,わざわざ系統的レビューをする意味がないように思います.このことは一次研究に検定が採用されていなくても言えることと考えます.更に,一次研究が仮説検定であって,それらのメタ分析をするならば,それぞれの検定手法の詳細(サンプルサイズや有意水準)が明らかになって,それが異なっている場合は何らかの調整が必要です.あるいは,近年では効果量をベースにしたメタ分析を実施することが一般的になっています.連載記事にはこのグラフの引用先が書かれているので,行ってみると「厚生労働科学研究成果データベース」の「たばこ規制枠組み条約を踏まえたたばこ対策に係る総合的研究」がソースらしいのですが,この報告書はお役所特有の分割されたPDFになっているので,パッと見では探せませんでした.
というわけでこれからこの報告書を読んでこのグラフの背景について調べてみます.とはいえ,時間がかかりそうなのでこの続きはまた来週.それでは.

追記:引用元にちゃんと書かれていました.「分担研究報告書2-2」にこの図があるようです.これから読みます.
タグ:統計学
posted by Tad at 19:00| Comment(0) | TrackBack(0) | Stat Spotting