UA-115498173-1

2017年12月16日

条件振りはなぜいけないか

昨日は東京ビッグサイトで開催されていたSMICON JAPANにいってきました.半導体製造関連の展示会として40年以上も続いている歴史のある展示会で,少し前までは幕張メッセが会場だったのですが,2014年からビッグサイトに場所を移しています.社会人になって以来ずっと半導体に関わってきたこともあって,SEMICONには毎年参加しているのでわかるのですが,イベントとしてはだんだんと寂れてきているのを肌で感じます.ビッグデータ関連の展示会のほうが出展社も参加者もぜんぜん多いように思うのですが,公式の来場者数を見る限りではそれほど大きな違いはありませんから気のせいかもしれません.とはいっても,往年の賑わいとは比べるまでもなく,今年はWORLD OF IoTというエリアが設けられていたりと,関係者の方々もご苦労されているようです.
今年は本来の情報収集にあわせて,半導体製造分野でDOEがどれだけ普及しているのか古くからお世話になっているいくつかの装置メーカーの技術統括者の方々に聞いてみました.乱暴を承知で要約すると「目先の仕事に追われてそれどころではない」ということのようです.サンプリングが足りませんが,医薬メーカーとの温度差は確かにあるようです.展示会なので基本は営業さんが多いのですが,説明要員として展示会に駆り出される技術者も多いので,彼・彼女らともお話しましたが,その中で上司が実験計画の結果に不安を感じているので結局すべての実験をやらざるを得ないという同情すべき方がいました.
実験計画をするにしてもそれが完全実施要因計画に限定されるのであれば,そのメリットは損なわれるのはもちろん,結局膨大な実験数を低減するために無理な因子の絞り込みをしてしまうという弊害があります.そして何よりも問題なのは単なる条件振りとして考えずに計画を立てた結果として,それが完全実施要因計画になっているという場合,その計画で得られたデータから統計モデルを得ることが考慮されていないことが多いのです.
例えば,水準の設定が興味によってなされているため,それらの間隔が等しくなかったり,特定の因子の影響が無い状況を「0」としていたり,温度の水準の一つが「室温」となっていたりします.この措置が正しい場合もあるので質的因子で計画を作ることが良くないというわけではありませんし,質的因子で統計モデルを作るのであれば話はまた別です.
しかし,問題なのはすべての条件を実験しないとその結果の妥当性が判断できないという上司の頭の中です.その発想はすべての組み合わせの中からベストを選べばそれが最適解であろうという単純なものです.確かにこのような格子点解は連続量空間での最適解の近似になってはいます.
しかしながら,それは単特性のような単純な場合に限ります.多目的では状況が全く異なってくる可能性があります.今,簡単のため二つの特性Y1とY2とがこんな感じで 1因子Xで支配されている場合を考えてみます.
DraggedImage.be841667054e4ff1b3b984ac0e5a0840.png
それぞれ最小化,最大化するとしてたまたま10間隔で実験していれば,このような質的な計画でも解としてX=80, X=10という正しい解は得られます.ですが,Y2のダブルピークの構造は質的な因子の扱いでは見えにくいことが問題です.場合によっては全く見えません.ですから,2特性を考慮した場合の最適解を求めようとすれば,例えば,二つの解の平均をとって45とするくらいのものでしょう.こんな単純な場合だからできることではありますが,その上司がこの解で満足するのであれば絶望的です.この状況でしかるべき連続量の実験空間で実験計画を組み,その結果から統計モデルを得たならば,「満足度の最大化」で解が求まります.
DraggedImage.3367f90fe65048a78ea09d03fb723cb9.png
ここでは二つの特性の重みは等しいとしていますが,その解は,X=82.3と先ほどの最適解もどきとは大きな乖離があることが理解できるはずです.

もしも身近に「条件振り→ベストをチョイス」というKKD手法でなければ安心できないという上司がいるならばこの記事を見せてください.どのような反応をするのか興味があります.
それではまた.
タグ:JMP
posted by Tad at 11:27| Comment(0) | TrackBack(0) | 統計的問題解決

2017年12月09日

カスタム計画の最適基準について(少し追加)

先日,カスタム計画について質問されました.同じ事前モデルにしても人によって最小実験数が異なるというのです.計画そのものは乱数計算で作成されるので人によって異なるのはそれが仕様なのですが,実験数は変わらないはずです.状況を確認したところ,人によって事前モデルの作成手順が異なっていたためということがわかりました.
このことを理解するためにはカスタム計画の最適基準について知っていることが必要です.本書にも書いたことですが,ほとんど場合はデフォルト設定である「推奨する最適化法」というJMPのおすすめに従っていればいいので,最適化基準の使い分けはもちろん,その存在を意識しなくても大丈夫です.とはいえ,推奨と言っても高度なアルゴリズムが背後にあるというわけではありません.基本はD最適基準が採用されて,「RSM」ボタンを使って事前モデルを作成する場合に限り「I最適基準」で計画が作成されます.二次の交互作用項と二乗項とを個々に追加しても全く同じ事前モデルが作成できますが,この場合はD最適基準で計画が作成されます.このため,同じ事前モデルでもその操作手順によって(基準が)異なった計画ができてしまうのです.この際,基準によって必要実験数が変わることがあります.5因子のフルモデルを「交互作用」「べき乗」のボタンで作成すると,最小が21,推奨が28の実験ができます.一方,「RSMボタン」を使うと最小が21,推奨が27になります.試してみてください.
それではなぜこの違いが出るのかということですが,実験計画をモデル行列として記述して,数理的な観点から眺めるとそれぞれの基準の意味するところは容易に理解できます.(最尤法は理解しているほうがいいですけど.)数式が書きにくいブログで詳細に説明するのは困難なので,乱暴ながらニュアンスだけお伝えします.言葉の定義もあいまいにしているので少々不正確なところもあるのはご了承ください.
まず最適化にはいろいろあるということは最適化設計の場合と全く同じです.何を最適化しているのかという違いがそれぞれの最適化基準の違いです.I最適基準ではJMP流にいうと(相対)予測分散が最適化(最小化)されています.予測分散とは予測値の分散のことで,ここらへんのことはモデルのあてはめのアナロジーで理解できます.この予測分散と誤差分散との比をとって相対予測分散と定義していて,この値は実験データには無関係になります.この場では,実験空間内で計画に固有の値(予測分散)が計算できると理解しておけばそれで十分です.このとき実験空間内での予測分散の平均値を最小化するのがI最適基準です.この平均というところがポイントです.一方,D最適基準は情報行列の行列式を最大化すると書籍には書かれています.まず情報行列とはパラメータ推定の精度向上のための情報を尤度関数の分散で表現したフィッシャー情報量の多次元分布への拡張版です.この情報量とは推定に必要な情報量と理解してください.行列式とは単位ベクトルがその行列によって変換されたベクトルで囲まれた単位体積ですから,それを最大化するということは情報量がより大きい計画によってパラメータ推定精度を高めることを目的としていることになります.
D最適基準とI最適基準の違いを視覚化してみました.この図は3因子のフルモデルで実験数16とした場合です.青丸がD最適の実験点で赤丸がI最適の実験点です.紫色の点は両方に共通している点で,中央の濃い赤丸は中心点で点が重なっていることを示しています.I最適計画には二つある中心点はD最適計画には一つもないことがわかりますね.
最適基準.png
言葉だけの説明では限界がありますので,なんとなくという理解でOKです.最適化基準の定義を数式として覚えるよりも,最適化基準の意味するところを理解し,それによって最適化基準を使いわけられるほうが技術者には重要です.本書では入門書であるということを意識して,基準の使い分けは紹介しませんでした.JMPのおすすめはほとんどの場合D最適基準ですから多くの技術者はこれだけを使うことでも構いませんが,少し上級者は使い分けをしてもおもしろいですね.このことでカスタム計画作成の戦略の幅が広がるからです.
現時点での私の考える使い分けの戦略を書いておきます.まずD最適基準はモデルのパラメータの分散を最小化することを第一義にしているのでスクリーニングの目的で使うと有効です.このためには存在が不明な2乗項は事前モデルには入れないかわりに設計因子は可能な限り入れます.モデルのあてはめ精度が気になる場合は「中心点の数」をデフォルトの0から変更します.寄与率の高いモデルができたならばこのモデルで最適化設計に進みます.
しかしながら,このモデルの予測分散(の平均値)はI最適計画によるものよりも大きいはずなので,D最適計画の結果をもとにI最適計画に繋げます.この際,最適解を予測分散が最小になっている実験空間の中心に持ってくると良いです.スクリーニング後なのですべて因子の効果はそれなりにあるはずですから,事前モデルは「RSM」ボタンで作成することになります.おそらくこのような使い分けを想定しているのでJMPの「推奨する最適化法」の仕様は上述のようになっているのではないでしょうか.
この他JMPには交絡最適計画とうのもありますが,これもうまくつかうと大変有効な計画なのでいつか紹介します.更には最適計画には最適化基準としてA最適やG最適などもあって,これらはJMPには実装されていませんが,特にA最適はD最適の回転可能性 (design rotatability)という制約を外した最適基準と理解できるので,事前モデルにおける交互作用の確信度がある程度高い場合などではD最適のかわりに使うことで予測値の分散を低減できると考えています.
世には上述の最適基準の定義を解説した書籍は多くあるのですが実戦的な使い分けを教えてくれる書籍がないので,自らの事例でトライアンドエラーで使い分けを確立していこうと思っています.どなたか一緒にやりませんか?
それではまた.
タグ:統計学 JMP

2017年12月02日

イノベーションと実験計画

 Analytically Speakingというのをご存知でしょうか.JMPの米国HPのLearn JMPのタブの右下にあるOn-Demand Webcastsから一連のビデオが視聴できますが,Analytically Speakingのコーナーは一番上にあります.ときどき除いているのですが,最近のビデオがよかったので紹介します.本日時点では二番目に新しいビデオでHow Do You Build a Great Analytic Culture?というタイトルです.
このビデオはUser Communityのブログでも紹介されていました.(因みにUser Communityへ行くには,JMPのヘルプメニューから>JMP User Communityを選択します.ブラウザに表示されるページの上に並ぶナビゲーションタブの一番右のJMP Blogsをクリックします.)ビデオの内容は分析文化を醸造するにはいかにすべきかという問いに関してJMPセールスの親分ジョン・ワイズ(Jon Weisz)とField Enablementという(日本で言うアプリケーションエンジニアのようなものでしょうか)部門の重鎮ルー・バレンテさんへのインタビューです.

ジョン・ワイズさんとは毎年サミットでお会いしていますが,今回のサミットでもお話ししました.彼も私と同じMacユーザーなので(賛否両論ある)MacBook Proのタッチバーはあったほうがよいという意見や,JMPはやはりMac版の方が見た目が綺麗だという点でも一致して盛り上がったりしました.そういえば今回のジョン・ソールさんの講演ではMacを使われていましたね.最初にお会いしたときはWINDOWSを使われていたし,去年の講演でもWINDOWSを使われていたのでジョンのマッキントッシュプログラムと言うのは昔のことかとがっかりしていました.なんでも去年の講演ではビッグデータを使うのにハードの搭載メモリ上限があるMacBookではなくWINDOWSのノートPCを使う必要があったそうです.今回のゴーストデータではその制約もないのでご自分のMacを使われたのでしょう.
 もう一人のルー・バレンテさんは絵にかいたような好漢です.数年来の顔見知りなので今回日本にいらっしゃらなかったのが残念ですが,ビデオではお元気そうですね.コダックで実務として長い実験計画の経歴をお持ちで,DSDは彼に最初に紹介してもらったことを覚えています.そのときの私の質問「DSDのデータから統計モデルを作っちゃダメなの?」にはっきりしかも力強く「NO!」と答えてくれたことを昨日のように思い出します.そのあと,そうはいってもね...という議論が続くのですが,ここらへんのことは本書に書いてあるとおりです.ビデオではルーさんが初期のDSDの事例を紹介してくれていますが,その際にDiscovery Paper Searchというアドインで過去のDiscovery Summitでの発表を検索しています.私は幾つかの理由から発表の資料を公開していませんが,これを見て気が変わりました.いずれ英語にして検索に引っかかるくらいのものを作成して登録してもらうようにします.それにしてもいろいろなアドインが入ってますね.それと彼もMacユーザーだということは初めて知りました.

40分を超えるビデオですが見る価値はあります.後半のコダックのOLEDの実験計画の事例などは実験計画をうまくやれば(おそらく幾度かの失敗を乗り越えて)大きな成功をもたらすことができるという証明です.このビデオでまさに私が同感するのは,JMPブログでもリファーされているジョン・ワイズさんの言葉です.
“There has to be the freedom to innovate and try, otherwise you literally cannot do experimentation if you can’t innovate and try because that’s what in essence DOE is – a lot of innovations and trials within the experiment.”
イノベーションを起こしそれに挑戦するにはそこに自由がなければならないんだ.もしそれらが自由にできないのなら文字通り実験はできないということだよ.だって,それがDOEの神髄だからね.多くのイノベーションやそれへ挑戦することは実験の中にあるんだ.
 
「統計的問題解決入門」では,イノベーションを目指すにはDOEに基づいたパラメータ設計が必須であるということをいささか回りくどく書いています.控えめに実験計画の意義を主張して,読者自らがそれに気づいてもらうような意図があるのですが,このため本書の第3講はやや抽象的であるというもっともなご意見もいただいています.このことをジョン・ワイズさんはアメリカ人らしく直球で言ってくれました.ちゃんと挑戦は失敗の裏返しと言うことも言われています.メッセージとしてはこのほうがよく伝わると感じました.私もこれからはイノベーションを目指すならDOEしなければ駄目だとストレートに表現します.

この後ビッグデータについても書こうと思ったのですが長くなるので今日はここらへんで.
それではまた.
タグ:統計学 JMP
posted by Tad at 15:02| Comment(0) | TrackBack(0) | JMP

2017年11月25日

階層型クラスター分析で面内分布を分類する

先日のサミットでの発表では,階層型クラスター分析を用いて特性の面内分布のクラスタリングをデモしました.懇親会の場でまさにこういうことがやりたかったという方に声をかけていただきまして,どうやるのかという質問に後日このブログに掲載しますとお答えしました.もともと出版記念セミナーとサミットとでデモした内容は本書の編集時点ででカットしたものですが,応用範囲は広いのでしまっておくのは残念に思っていました.ともに実験計画の外側のデータを有効に使うために考案した手法です.「統計的問題解決入門」第5講の例題はデータ取得前に通常は外側に配置する因子を内側に配置してカスタム計画に強引に持っていくという手法ですが,今回のデモでは既に取得されたデータを外側直交に配置して,統計モデルを作成しています.このデータ構造故に面内分布のクラスタリングが可能であることに注意してください.以下に手順を示しますので,ぜひ自分のデータで実習してみて下さい.
まずデータ構造として列名で「因子1」「因子2」「因子3」...という特性の設計因子に続いて「特性@測定点1」「特性@測定点2」「特性@測定点3」のようなものを考えてみます.このデータに測定点の座標「X」「Y」という新たな量的因子を導入して積み重ねの構造にします.そうすると,「因子1」「因子2」「因子3」...「X」「Y」「特性」というような列の並びになります.これらに加えて通常は「Lot」とか「パーツ番号」あるいは「製品名」とかのその列名も加わっていることが多いはずです.
 
このデータに対して,「分析>クラスター分析>階層型クラスター分析」を実施します.設定パネルで左下のプルダウンで「通常のデータ」となっているのを「積み重ねたデータ」に変更して,ここが重要ですが「空間的な指標の計算」にチェックを入れます.「Y,列」には「特性」を「属性のID」には「X」「Y」を指定し,「対象のID」にはその面内分布をユニークに指定するために必要な列をいれます.例えば,「Lot」ですとか「製品名」ですとか.実験計画のデータであれば「実験番号」というのでもいいです.そうしたら『OK』です.
 
「空間的な指標」という設定パネルが出てきます.ここのパラメータの設定にはハフ変換という画像処理を知っておく必要がありますが,とりあえずデフォルトで『OK』してください.そしてレポートの赤三角から「クラスターの要約」でデモで示したクラスタリング結果が面内マップで表示されます.
 
言葉だけですと分かりにくいかもしれませんが,一連の操作は上述の通りなので難しいことはありません.場合によって難しいかもしれないのは上述したハフ変換の設定を最適化する必要がある場合でしょうか.これらのパラメータを調節することで特定の欠陥パターンを効果的に分類・抽出できますが,その設定によって大幅に処理時間が変わってきます.ある程度の経験が必要なので言葉では説明が困難なのですが,具体的なデータを提示していただければアドバイスできると思います.私の本職は画像処理なのでここらへんの勘所はあります.
ご質問してくださったかたがこの記事をお読みになることを願いつつ,それでは今週はこれで.
タグ:JMP
posted by Tad at 08:22| Comment(0) | TrackBack(0) | Q&A

2017年11月18日

産業界の皆様へ

昨日のDISCOVERY SUMMIT JAPANでは多くの方々とお会いできて楽しかったです.運営に関与するものとして参加してくださった皆様にお礼をいたします.あれだけの規模のイベントをJMP Japanのマーケット部門の女性三人が中心となって成功させたのです.リーダーのかたはデフォルトが笑顔という素敵な方ですが,昨日は笑顔が消えていましたが,懇親会の場でお見かけしたときは笑顔が戻っていたので安心しました.
私も発表させていただきましたがこのブログでもお話ししたように代打での登壇だったので本来50分枠のテーマを25分枠に押しこんでしまい,質問もお受けできずもうしわけございませんでした.デモもじっくりやりたかったのですがやはり時間切れで忙しかったですね.「階層型クラスター分析」の操作について懇親会の場でご質問いただいたので,後日このブログで説明しますとお答えしたのですが,見てくださってますか?来週までお待ちください.
昨日参加できなかった方もいらっしゃると思いますので,私の発表で特に産業界の技術者にお伝えしたかったメッセージを以下に再掲します.冒頭では医薬系分野とその他の産業分野との比較をして来年はもっと後者からエントリーを増やしたいという前置きをしています.書き起こしではなく覚えている限りなので微妙に違っているかもしれませんが,その点はお許しください.
ここから
このような発表で構いませんので,来年は皆様からもエントリーをお待ちしています.もちろん,社外発表することが我々の目的ではありませんが,アイデアがあれば発表することで手法のアラが見えてくるということは実感しています.自分のアイデアに磨きをかける機会はとても貴重です.更に重要なこととして,まずはJMPを用いた実験計画にトライしてみてください.日本の産業界に実験計画をはじめとした統計的手法がもっと普及して欲しいと願っています.
こんなことを言うのも,私たちの製品はお互いに依存し合っているからなのです.半導体メーカーの作ったパワーデバイスはインバーターに使われ,それはモーターに使われ,電気自動車に使われる,それが交通システムという更に上位の製品を形成する.その一つ一つのドメインにいて,我々はときに協し力ときにしのぎを削りつつ最適化していく必要があります.とはいえ,これは部分最適化です.明らかなことはそれぞれの製品をよりよく作っていくには全体最適化を目指さなければならないということです.そのためには一つの大きな実験計画が必要です.ところが,半導体の製造工程も1,000を超え,自動車の部品も3万点以上と聞きます.一つの大きな実験計画を組むことは現実には不可能です.
この状況の中で我々に必要なのは,単なる局所的な解ではなく,個々の製品のシステムを理解することです.解から理解へ.単なる解を得るだけならば近い将来AIがやってくれるようになるでしょう,我々に残された仕事はシステム,製品を理解すること,そのためにはJMPを使ったデータ結果の探索がますます重要になっていくはずです.
ここまで
メッセージを入れた発表でしたが,アイデアとしても役に立つものと思っています.言及はしませんでしたが,あの最適化はMCDAアドインで実施可能です.詳細が知りたい方は後日開催予定の「統計的問題解決フォローアップセミナー」にいらして下さい.ただ,開催日時は全く未定なので,お急ぎの方は直接お問い合わせください.
それではまた.
タグ:JMP
posted by Tad at 08:03| Comment(0) | TrackBack(0) | JMP