SlideShare a Scribd company logo
1 of 41
Download to read offline
Incentive Compatible Regression Learning

                  大岩秀和 (@kisa12012)
               東京大学情報理工学系研究科 博士一年




12年10月21日日曜日                                  1
紹介論文
               • Incentive Compatible Regression Learning
                •   Ofer Dekel, Felix Fischer, Arial D. Procaccia,
                    Journal of Computer and System Sciences 2010

                •   Incentive の概念を機械学習(回帰問題)に導入

                •   ゲーム理論の枠組みで回帰問題を定式化

                    •   戦略的主体に真の情報を正直に報告させるためのメ
                        カニズムを提案,分析




12年10月21日日曜日                                                         2
対象とする問題
               •   回帰問題

                   •   x 2 X から y 2 R を出力する関数の推定問題

                   •   正解データ集合を用いて,仮説集合 F の中から
                                       ⇤
                       最適な関数 f : X ! R を求める

                   •   複数の戦略的主体がデータを生成する場合が対象

                                               仮説集合 F
                       (x1 , y1 )
                          (x2 , y2 )
                                           …     f   ⇤

12年10月21日日曜日                                             3
問題1:検索エンジン
               •   検索エンジンは回帰問題として定式化可能

                   •   入力:(クエリ, URL) 出力:スコア

                   •   クエリ毎にスコアの高い順に結果を表示

               •   複数のユーザーを雇い,教師となるデータを作成

                   •   特定クエリでURLを順位付け(ランキング学習)

                   •   ユーザー毎に理想とする検索結果は異なる

                       •   ユーザーは学習結果が自身の理想の結果になるよう
                           に戦略的に行動



12年10月21日日曜日                                         4
問題1:検索エンジン
                  クエリ:Jaguar
          動物愛好家
       1.動物          1.動物
     2.自動車           2.自動車
     3.その他           3.その他
          …            …       1.自動車
                               2.動物
                  教師データ        3.その他
         自動車愛好家                  …
                     1.自動車
     1.自動車             1.自動車
       2.動物
                      2.動物
                        2.動物
                     3.その他
                                 f
     3.その他             3.その他
                         …
          …                …
12年10月21日日曜日                           5
問題1:検索エンジン
                  クエリ:Jaguar
          動物愛好家
                      1.動物
       1.動物
                     2.その他     動物>自動車となるよう,
     2.自動車                       偽のデータを作成
                       …
     3.その他
                     50.自動車       1.動物
          …
                                  2.自動車
                  教師データ           3.その他
         自動車愛好家                     …
                     1.自動車
     1.自動車             1.自動車
       2.動物
                      2.動物
                        2.動物
                     3.その他
                                    f
     3.その他             3.その他
                         …
          …                …
12年10月21日日曜日                                  6
問題2:商品割り当て
               •    ウェアハウスの在庫商品の割り当て最適化 (Zaraの例[1][2])

               •    過去の販売統計や各小売店の需要予測から,来期の各店舗
                    の販売量を推定

                   •     小売店は本来の需要予測よりも多い量を報告する傾向

                       •   給料が販売量に依存する場合

 需要予測                  •   売れ筋商品の在庫が十分にない場合

                   100          報告   200   発注    150


                   200          報告   200   発注    150


12年10月21日日曜日                                             7
目次
               •   Incentive Compatible Regression Learning

                   •   メカニズムデザイン

                   •   回帰問題のゲーム理論の枠組みでのモデル化

               •   Case1: Degenerate distribution

               •   Case2: Uniform distribution

                   •   Without Money

                   •   With Money

               •   結論



12年10月21日日曜日                                                  8
目次
               •   Incentive Compatible Regression Learning

                   •   メカニズムデザイン

                   •   回帰問題のゲーム理論の枠組みでのモデル化

               •   Case1: Degenerate distribution

               •   Case2: Uniform distribution

                   •   Without Money

                   •   With Money

               •   結論



12年10月21日日曜日                                                  9
メカニズムデザイン
               •   経済学,特にゲーム理論の学術領域

                   •   オークション理論を中心に研究が進んでいる

               •   戦略的主体を導入

                   •   各戦略的主体は自身のみが知る情報を持つ

                       •   他の主体と設計者には,その情報は未知(秘密情報)

                   •   各主体は秘密情報とメカニズムを基にタイプを申告

                   •   メカニズムは申告されたタイプを基に結果を算出
                                        メカニズム
                   秘密情報           タイプ
                                                結果
                   秘密情報           タイプ

12年10月21日日曜日                                          10
補足事項
               •   今回は,直接顕示メカニズムのみが対象

                   •   タイプ表明は一度のみ

                   •   顕示理論により正当化

               •   タイプに関して,メカニズムはいかなる事前情報も持たない

                   •   分布すら分からない

               •   α-efficient : 最適性を測る指標
                           X                             X
                       ↵         vi (f (✓), ✓i )   max         vi (a, ✓i )
                                                   a2A
                           i2N                           i2N
               •   ε-(group) strategyproof : IC を測る指標

                              ˆ
                       vi (f (✓), ✓i )          ˆ
                                            pi (✓)  vi (f (✓), ✓i )         pi (✓) + ✏

12年10月21日日曜日                                                                              11
回帰モデルの場合
               •   各主体は個別の情報を持つ

                   •   確率分布 ⇢i (·) : X ! R+ と評価関数 oi (·) : X ! R

                   •   確率分布は公知

               •   各主体は,自身の損失を最小化するようにデータを構築

               •   メカニズムは教師データを基に回帰モデルを学習

               •   評価には損失関数を用いる

                   •   `(·, ·) : R ⇥ R ! R      Ex: `(f (x), oi (x)) = |f (x)   oi (x)|

         ⇢i (·)        oi (·)       {(xik , yik )}k メカニズム
                                                                    f
        ⇢j (·)         oj (·)        {(xjl , yjl )}l

12年10月21日日曜日                                                                              12
利益相反問題
                       各主体の目標                         メカニズムの目標



                自身の損失関数の最小化                         全域的な損失関数の最小化
               Ri (f ) = Ex⇠⇢i [`(f (x), oi (x))]     RN (f ) = Ei [Ri (f )]

               •   各主体は, i (f ) を最小化するようにデータを構築
                        R

                   •   評価関数に基づく真の正解よりも偽のデータを申告す
                       る方が i (f ) が小さくなる場合,偽のデータを申告
                          R

                   •   偽のデータは RN (f )を増やす可能性

                                                           偽?

12年10月21日日曜日                                                                   13
メカニズムは各主体から与えられたデータ
                          を用いてf を出力するルール設定



               oi (·)             oi (·) に従ったデータ生成は,
                                    各主体にとって最適?

                                でなければ,この主体は偽データを生成する




                        ただし,各主体にとって真の情報を表明することが
                           最適なだけではメカニズムとして不適




12年10月21日日曜日                                           14
Dictatorship
               •   メカニズムは戦略的主体の内一人を選び,その主体の生成する
                   データのみを用いて最適化,他の主体のデータは考慮しない

                   •   戦略的主体は偽データを生成するインセンティブはなく,
                       正直に情報を掲示

                   •   ただし,全体最適な関数が得られる保証は無い

                                      選ばれた主体は,掲示するデータを
                                      自身の損失関数の不偏推定量とする
                                      ため,真の情報を掲示するのが最適



                                      選択されない主体は,いかなるデー
                                      タを掲示してもメカニズムに考慮さ
                                      れず,偽データを作る意味が無い

12年10月21日日曜日                                             15
メカニズムは各主体から与えられたデータ
                          を用いてf を出力するルール設定



               oi (·)          oi (·) に従ったデータ生成は,
                                 各主体にとって最適?

                             でなければ,この主体は偽データを生成する



                               データ生成が適切ならば,
                               学習されるモデルは最適?

                             でなければ,出力されるモデルは不適切


                これらの条件を満たすようにメカニズムを設定したい
12年10月21日日曜日                                        16
本研究の目標
               •   以下の条件を満たすメカニズム設計が目標

                   •   Strategyproof : 各主体は正直な掲示が最適

                       •           ˆ    ˜
                           これを満たす時,R(f, S) は RN (f ) の不偏推定量

                   •   Efficient : メカニズムの導出する解が最適解



               •   有限個のデータで近似 (Empirical Risk Minimization)
                                                          Si = {(xij , yij )}m
                   •   各主体の効用に応じた真のデータ                                       j=1

                                                          ˜
                   •   チルダが付く場合,表明されたデータ
                                        1 X
                                                          Si = {(xij , yij )}m
                                                                       ˜     j=1
                             ˆ
                   •   損失関数  R(f, S) =
                                       |S|
                                            `(f (x), y)
                                           (x,y)2S
                                                             S = ]i2N Si
12年10月21日日曜日                                                                       17
メカニズム設計
               •   確率分布・仮説空間・損失関数の定義毎にメカニズムの持
                   つ性質が異なる

                   •   それぞれ場合分けして解析を行う



               •   下記の要素も考慮

                   •   共謀(複数の主体が同時に偽のデータを作成)

                   •   損失移転(他の主体への影響を,自身の損失に内部化)




12年10月21日日曜日                                       18
目次
               •   Incentive Compatible Regression Learning

                   •   メカニズムデザイン

                   •   回帰問題のゲーム理論の枠組みでのモデル化

               •   Case1: Degenerate distribution

               •   Case2: Uniform distribution

                   •   Without Money

                   •   With Money

               •   結論



12年10月21日日曜日                                                  19
Degenerate distribution
          xi           oi (·)       (xi , yi )
                                          ˜
                                                 ˜
                                                 S         ˜
                                                           f
          xj           oj (·)       (xj , yj )
                                          ˜


               •   各主体が扱う入力データは1種類のみ

               •   応用例

                   •    ウェアハウスの在庫管理

                   •    タスク割当

               •   損失関数の形状に応じて,メカニズムの性質も変化

                   •    本研究は `(↵,   ) = µ(|↵         |)の形の損失関数に限る
12年10月21日日曜日                                                        20
目標の整理
                        ˜    ˜
                 メカニズムは S から f を出力するルール設定


       Strategyproof
                           偽のラベルを表明しても
                 oi (·)   ˆ ˜
                          Ri (f )を小さく出来ないか?


       Efficient
                          メカニズムから得られる解
                           R( ˜
                            ˆ
                          は, f , S)を最小化するか?


               これらの条件を満たすようにメカニズムを設定したい
12年10月21日日曜日                                  21
Absolute Lossの場合
               • Absolute Loss : `(↵,   ) = |↵   |
               • 仮説集合 F は凸集合
      Strategyproof / Efficientなメカニズムが存在

        •      Group Strategyproofにもなる

        •      複数の主体が共謀して偽のラベルを与えても,一人以上
               が利益を得る場合,少なくとも一人は損をする



12年10月21日日曜日                                         22
ERMメカニズム

               • 1. 損失の最小値を算出
                •           ˆ    ˜
                    r = min R(f, S)
                         f 2F

               • 2. タイブレーク法                          Z
                •   ˜                        2            2
                    f = argmin kf k s.t. kf k    =       f (x)dx
                               ˆ
                         f 2F :R(f,S)=r

          Theorem ERMメカニズムは損失関数がAbsolute Lossの時,
          Group Strategyproof かつ Efficient

               •   Group StrategyproofならばEfficientであることは明らか

12年10月21日日曜日                                                       23
一般の凸損失関数の場合
               • ERMメカニズムはStrategyproofとならない
                • 損失関数: `(↵, ) = µ(|↵ |)
               • Strategyproofにならない例
                • 損失関数:     `(↵, ) = k↵ k2
                                         2


                •  仮説空間:定数値関数 f (·) = c
               (x1 , 2)   (x1 , 2)
                                       f (·) = 1
               (x2 , 0)   (x2 , 0)
                                     メカニズムの損失は2
12年10月21日日曜日                                       24
一般の凸損失関数の場合
               • ERMメカニズムはStrategyproofとならない
                • 損失関数: `(↵, ) = µ(|↵ |)
               • Strategyproofにならない例
                • 損失関数:     `(↵, ) = k↵ k2
                                         2


                • 仮説空間:定数値関数 f (·) = c
               (x1 , 2)   (x1 , 4)
                                       f (·) = 2
               (x2 , 0)   (x2 , 0)
                                     メカニズムの損失は4
12年10月21日日曜日                                       25
凸損失関数の場合
               •    損失関数の制約

                   • µ(·) が単調増加かつ厳密に凸,勾配上限無し
               •    仮説空間の制約

                   • F 内の仮説が二つ以上
                   • {hf (x ), . . . , f (x )i : f 2 F } = {f (x ) : f 2 F } ⇥ · · · ⇥ {f (x ) : f 2 F }
                            1           n                6     1                           n




               Theorem 上記の制約が満たされる時,ERMメカニズムは
               Strategyproofにならない oi (·) が必ず存在する



12年10月21日日曜日                                                                                           26
目次
               •   Incentive Compatible Regression Learning

                   •   メカニズムデザイン

                   •   回帰問題のゲーム理論の枠組みでのモデル化

               •   Case1: Degenerate distribution

               •   Case2: Uniform distribution

                   •   Without Money

                   •   With Money

               •   結論



12年10月21日日曜日                                                  27
Uniform distribution
           ⇢i (·)      oi (·)   {(xik , yik )}k
                                                  f
          ⇢j (·)       oj (·)   {(xjl , yjl )}l



               •    確率分布 ⇢i (·) は一様分布

                   •   主体毎に,異なる一様分布の割り当て

                   •   有限種類の入力データが一様で生成

               •    損失関数はAbsolute Lossに限定して議論

               •    仮説空間の定義に応じ,メカニズムの性質が変化

12年10月21日日曜日                                          28
仮説空間:定数値関数の場合
               • ERMメカニズムは,Strategyproofではない
                • ERMメカニズムはUniform dist. には不適
      (1, 1)         (1, 1)
      (2, 1)         (2, 1)                   ˆ S1 ) = 2
                                              R(f,
                                                       3
      (3, 0)         (3, 0)
                                  f (·) = 0
      (4, 0)         (4, 0)
      (5, 0)         (5, 0)                   ˆ S2 ) = 1
                                              R(f,
                                                       3
      (6, 1)         (6, 1)
12年10月21日日曜日                                               29
仮説空間:定数値関数の場合
               • ERMメカニズムは,Strategyproofではない
                • ERMメカニズムはUniform dist. には不適
      (1, 1)         (1, 1)
      (2, 1)         (2, 1)                  ˆ S1 ) = 1
                                             R(f,
                                                      3
      (3, 0)         (3, 1)
                                 f (·) = 1
      (4, 0)         (4, 0)
      (5, 0)         (5, 0)                  ˆ S2 ) = 2
                                             R(f,
                                                      3
      (6, 1)         (6, 1)
12年10月21日日曜日                                              30
Project-and-fitメカニズム

        (1, 1)          (1, 1)
        (2, 1)          (2, 1)   f1 (·) = 1
        (3, 0)          (3, 0)


         (4, 0)         (4, 0)
         (5, 0)         (5, 0)   f2 (·) = 0
         (6, 1)         (6, 1)

                                      ˆ
                  各主体に対して, i = argmin R(f, Si ) を算出
                          f
                                     f 2F

12年10月21日日曜日                                          31
Project-and-fitメカニズム
                               f1 (·) = 1
        (1, 1)        (1, 1)       (1, 1)
        (2, 1)        (2, 1)       (2, 1)
        (3, 0)        (3, 0)       (3, 1)

         (4, 0)       (4, 0)        (4, 0)
         (5, 0)       (5, 0)        (5, 0)
         (6, 1)       (6, 1)        (6, 0)
                          f2 (·) = 0
                  各主体のデータに fi を適用し,ラベルを置き換え

12年10月21日日曜日                                  32
Project-and-fitメカニズム

        (1, 1)    (1, 1)   (1, 1)
        (2, 1)    (2, 1)   (2, 1)
        (3, 0)    (3, 0)   (3, 1)
                                    f (·) = 0
         (4, 0)   (4, 0)   (4, 0)
         (5, 0)   (5, 0)   (5, 0)
         (6, 1)   (6, 1)   (6, 0)


          ラベルを置き換えたデータを用いて,EMRで回帰モデルを学習

12年10月21日日曜日                                    33
Project-and-fitメカニズム

               • 入力 : 仮説空間 F ,データ      S = ]i2N Si

               • 出力:回帰関数 f
               • メカニズム
                                       ˆ
                1. 各主体に対して,fi = argmin R(f, Si ) を算出
                                    f 2F
                2. 各主体のラベルを fi で書き換え

                3. ラベルを置き換えたデータでERM



12年10月21日日曜日                                           34
Project-and-fitメカニズム
                             性能
               • 仮説空間
                • 定数関数=or 一次の斉次線形関数 = a · x
                    f (x) c      f (x)

         Theorem Project-and-fitメカニズムはGroup Strategyproof
         [6] かつ 3-efficient


        メカニズムが出力する仮説 f が必ず以下を満たす時,3-efficient

                      ˆ               ˆ
                      R(f, S)  3 min R(f, S)
                                 f 2F

12年10月21日日曜日                                               35
その他の定理
        Theorem 定数関数及び斉次線形関数が仮説空間の場合,      (3      ✏) -
        efficientとなるStrategyproofなメカニズムは存在しない

                                                      (✏ > 0)

        Theorem 2次以上の斉次線形関数および一般の線形関数が仮説空
        間の場合,Project-and-fitメカニズムはStrategyproofではない

                                 一般の線形関数 : f (x) = a · x + b

         一般の線形関数や2次以上の斉次線形関数が仮説空間の場合の,
         strategyproofかつefficientなメカニズムの存在は明らかでない


12年10月21日日曜日                                                    36
目次
               •   Incentive Compatible Regression Learning

                   •   メカニズムデザイン

                   •   回帰問題のゲーム理論の枠組みでのモデル化

               •   Case1: Degenerate distribution

               •   Case2: Uniform distribution

                   •   Without Money

                   •   With Money

               •   結論



12年10月21日日曜日                                                  37
損失移転が可能な場合
               •   VCGメカニズム [3][4][5]

                   •   ERMメカニズムで仮説 f を選択

                   •             ˆ            ˆ    ˜
                       ただし,各主体は R(f, Si ) に加え R(f, S i )が損失
                       に計上される (メカニズムによる損失移転)

                       •   偽データ作成の際に他の主体の損失が上昇すると,
                           自身の損失も上昇

                   •   各主体の目標とメカニズムの目標が一致する

               Theorem VCGメカニズムはいかなる損失関数に対しても
               Strategyproof かつ Efficient


12年10月21日日曜日                                                  38
VCGメカニズムの問題点
               • Not Group Strategyproof
                • 共謀によって偽のデータを掲示される可能性
               • 損失移転に関わる問題
                •  ˆ    ˜
                   R(f, S i ) の損失を課すのは現実的には困難

                  • 報酬額を調節?
                  •  しかし,ˆ S i ) の値と報酬額の関係は非
                              R(f, ˜
                   自明


12年10月21日日曜日                                    39
結論
               •   Incentive Compatible Regression Learningを紹介

                   •   機械学習に Incentive の概念を導入

                   •   様々な確率分布・損失関数・仮説空間の設定の場合,そ
                       れぞれ有効なメカニズムやその性質を概観

                   •   本論文では,Arbitrary distributionの場合の解析もある

               •   ただし,研究は未だ限定的で明らかにすべき事項は多い

                   •   分類問題への拡張

                   •   Absolute Loss以外の損失関数への拡張



12年10月21日日曜日                                                     40
Reference

     [1] F. Caro, J. Gallien. Inventory management of a fast-fashion retail
     network, Oper. Res., 2010.

     [2] F. Caro, J. Gallien, M.D. Marianda, J.C. Torralbo, J.M.C. Corras, M.M.
     Vazquez, J.A.R. Calamonte, J. Correa, Zara uses operations research to
     reeenginner its global distribution process, Interfaces, 2010.

     [3] W.Vickrey, Counter speculation, auctions and competitive sealed
     tenders, J.Finance, 1961.

     [4] E.H. Clarke, Multipart pricing of public goods, Public Choice, 1971.

     [5] T. Groves, Incentives in teams, Econometrica, 1973.

     [6] H. Moulin, Generalized Condorcet-winners for single peaked and
     single-plateau preferences, Soc. Choice Welf. 1984.




12年10月21日日曜日                                                                      41

More Related Content

Viewers also liked

20150328 cv関東勉強会 sumisumithパート_v1.3
20150328 cv関東勉強会 sumisumithパート_v1.320150328 cv関東勉強会 sumisumithパート_v1.3
20150328 cv関東勉強会 sumisumithパート_v1.3sumisumith
 
論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...
論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...
論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...Takuma Yagi
 
第28回コンピュータビジョン勉強会@関東(kanejaki担当分)
第28回コンピュータビジョン勉強会@関東(kanejaki担当分)第28回コンピュータビジョン勉強会@関東(kanejaki担当分)
第28回コンピュータビジョン勉強会@関東(kanejaki担当分)kanejaki
 
Leveraging Visual Question Answering for Image-Caption Ranking (関東CV勉強会 ECCV ...
Leveraging Visual Question Answeringfor Image-Caption Ranking (関東CV勉強会 ECCV ...Leveraging Visual Question Answeringfor Image-Caption Ranking (関東CV勉強会 ECCV ...
Leveraging Visual Question Answering for Image-Caption Ranking (関東CV勉強会 ECCV ...Yoshitaka Ushiku
 
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来Hidekazu Oiwa
 
関東コンピュータビジョン勉強会
関東コンピュータビジョン勉強会関東コンピュータビジョン勉強会
関東コンピュータビジョン勉強会nonane
 
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)Takuma Yagi
 
CVPR 2015 論文紹介(NTT研究所内勉強会用資料)
CVPR 2015 論文紹介(NTT研究所内勉強会用資料)CVPR 2015 論文紹介(NTT研究所内勉強会用資料)
CVPR 2015 論文紹介(NTT研究所内勉強会用資料)Yoshitaka Ushiku
 
画像キャプションの自動生成
画像キャプションの自動生成画像キャプションの自動生成
画像キャプションの自動生成Yoshitaka Ushiku
 

Viewers also liked (9)

20150328 cv関東勉強会 sumisumithパート_v1.3
20150328 cv関東勉強会 sumisumithパート_v1.320150328 cv関東勉強会 sumisumithパート_v1.3
20150328 cv関東勉強会 sumisumithパート_v1.3
 
論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...
論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...
論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...
 
第28回コンピュータビジョン勉強会@関東(kanejaki担当分)
第28回コンピュータビジョン勉強会@関東(kanejaki担当分)第28回コンピュータビジョン勉強会@関東(kanejaki担当分)
第28回コンピュータビジョン勉強会@関東(kanejaki担当分)
 
Leveraging Visual Question Answering for Image-Caption Ranking (関東CV勉強会 ECCV ...
Leveraging Visual Question Answeringfor Image-Caption Ranking (関東CV勉強会 ECCV ...Leveraging Visual Question Answeringfor Image-Caption Ranking (関東CV勉強会 ECCV ...
Leveraging Visual Question Answering for Image-Caption Ranking (関東CV勉強会 ECCV ...
 
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来
 
関東コンピュータビジョン勉強会
関東コンピュータビジョン勉強会関東コンピュータビジョン勉強会
関東コンピュータビジョン勉強会
 
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
 
CVPR 2015 論文紹介(NTT研究所内勉強会用資料)
CVPR 2015 論文紹介(NTT研究所内勉強会用資料)CVPR 2015 論文紹介(NTT研究所内勉強会用資料)
CVPR 2015 論文紹介(NTT研究所内勉強会用資料)
 
画像キャプションの自動生成
画像キャプションの自動生成画像キャプションの自動生成
画像キャプションの自動生成
 

More from Hidekazu Oiwa (6)

Prml9
Prml9Prml9
Prml9
 
IBMModel2
IBMModel2IBMModel2
IBMModel2
 
Pfi last seminar
Pfi last seminarPfi last seminar
Pfi last seminar
 
NLPforml5
NLPforml5NLPforml5
NLPforml5
 
PRML5
PRML5PRML5
PRML5
 
Arow
ArowArow
Arow
 

Incentive Compatible Regression Learning (Mathematical Informatics Reading)

  • 1. Incentive Compatible Regression Learning 大岩秀和 (@kisa12012) 東京大学情報理工学系研究科 博士一年 12年10月21日日曜日 1
  • 2. 紹介論文 • Incentive Compatible Regression Learning • Ofer Dekel, Felix Fischer, Arial D. Procaccia, Journal of Computer and System Sciences 2010 • Incentive の概念を機械学習(回帰問題)に導入 • ゲーム理論の枠組みで回帰問題を定式化 • 戦略的主体に真の情報を正直に報告させるためのメ カニズムを提案,分析 12年10月21日日曜日 2
  • 3. 対象とする問題 • 回帰問題 • x 2 X から y 2 R を出力する関数の推定問題 • 正解データ集合を用いて,仮説集合 F の中から ⇤ 最適な関数 f : X ! R を求める • 複数の戦略的主体がデータを生成する場合が対象 仮説集合 F (x1 , y1 ) (x2 , y2 ) … f ⇤ 12年10月21日日曜日 3
  • 4. 問題1:検索エンジン • 検索エンジンは回帰問題として定式化可能 • 入力:(クエリ, URL) 出力:スコア • クエリ毎にスコアの高い順に結果を表示 • 複数のユーザーを雇い,教師となるデータを作成 • 特定クエリでURLを順位付け(ランキング学習) • ユーザー毎に理想とする検索結果は異なる • ユーザーは学習結果が自身の理想の結果になるよう に戦略的に行動 12年10月21日日曜日 4
  • 5. 問題1:検索エンジン クエリ:Jaguar 動物愛好家 1.動物 1.動物 2.自動車 2.自動車 3.その他 3.その他 … … 1.自動車 2.動物 教師データ 3.その他 自動車愛好家 … 1.自動車 1.自動車 1.自動車 2.動物 2.動物 2.動物 3.その他 f 3.その他 3.その他 … … … 12年10月21日日曜日 5
  • 6. 問題1:検索エンジン クエリ:Jaguar 動物愛好家 1.動物 1.動物 2.その他 動物>自動車となるよう, 2.自動車 偽のデータを作成 … 3.その他 50.自動車 1.動物 … 2.自動車 教師データ 3.その他 自動車愛好家 … 1.自動車 1.自動車 1.自動車 2.動物 2.動物 2.動物 3.その他 f 3.その他 3.その他 … … … 12年10月21日日曜日 6
  • 7. 問題2:商品割り当て • ウェアハウスの在庫商品の割り当て最適化 (Zaraの例[1][2]) • 過去の販売統計や各小売店の需要予測から,来期の各店舗 の販売量を推定 • 小売店は本来の需要予測よりも多い量を報告する傾向 • 給料が販売量に依存する場合 需要予測 • 売れ筋商品の在庫が十分にない場合 100 報告 200 発注 150 200 報告 200 発注 150 12年10月21日日曜日 7
  • 8. 目次 • Incentive Compatible Regression Learning • メカニズムデザイン • 回帰問題のゲーム理論の枠組みでのモデル化 • Case1: Degenerate distribution • Case2: Uniform distribution • Without Money • With Money • 結論 12年10月21日日曜日 8
  • 9. 目次 • Incentive Compatible Regression Learning • メカニズムデザイン • 回帰問題のゲーム理論の枠組みでのモデル化 • Case1: Degenerate distribution • Case2: Uniform distribution • Without Money • With Money • 結論 12年10月21日日曜日 9
  • 10. メカニズムデザイン • 経済学,特にゲーム理論の学術領域 • オークション理論を中心に研究が進んでいる • 戦略的主体を導入 • 各戦略的主体は自身のみが知る情報を持つ • 他の主体と設計者には,その情報は未知(秘密情報) • 各主体は秘密情報とメカニズムを基にタイプを申告 • メカニズムは申告されたタイプを基に結果を算出 メカニズム 秘密情報 タイプ 結果 秘密情報 タイプ 12年10月21日日曜日 10
  • 11. 補足事項 • 今回は,直接顕示メカニズムのみが対象 • タイプ表明は一度のみ • 顕示理論により正当化 • タイプに関して,メカニズムはいかなる事前情報も持たない • 分布すら分からない • α-efficient : 最適性を測る指標 X X ↵ vi (f (✓), ✓i ) max vi (a, ✓i ) a2A i2N i2N • ε-(group) strategyproof : IC を測る指標 ˆ vi (f (✓), ✓i ) ˆ pi (✓)  vi (f (✓), ✓i ) pi (✓) + ✏ 12年10月21日日曜日 11
  • 12. 回帰モデルの場合 • 各主体は個別の情報を持つ • 確率分布 ⇢i (·) : X ! R+ と評価関数 oi (·) : X ! R • 確率分布は公知 • 各主体は,自身の損失を最小化するようにデータを構築 • メカニズムは教師データを基に回帰モデルを学習 • 評価には損失関数を用いる • `(·, ·) : R ⇥ R ! R Ex: `(f (x), oi (x)) = |f (x) oi (x)| ⇢i (·) oi (·) {(xik , yik )}k メカニズム f ⇢j (·) oj (·) {(xjl , yjl )}l 12年10月21日日曜日 12
  • 13. 利益相反問題 各主体の目標 メカニズムの目標 自身の損失関数の最小化 全域的な損失関数の最小化 Ri (f ) = Ex⇠⇢i [`(f (x), oi (x))] RN (f ) = Ei [Ri (f )] • 各主体は, i (f ) を最小化するようにデータを構築 R • 評価関数に基づく真の正解よりも偽のデータを申告す る方が i (f ) が小さくなる場合,偽のデータを申告 R • 偽のデータは RN (f )を増やす可能性 偽? 12年10月21日日曜日 13
  • 14. メカニズムは各主体から与えられたデータ を用いてf を出力するルール設定 oi (·) oi (·) に従ったデータ生成は, 各主体にとって最適? でなければ,この主体は偽データを生成する ただし,各主体にとって真の情報を表明することが 最適なだけではメカニズムとして不適 12年10月21日日曜日 14
  • 15. Dictatorship • メカニズムは戦略的主体の内一人を選び,その主体の生成する データのみを用いて最適化,他の主体のデータは考慮しない • 戦略的主体は偽データを生成するインセンティブはなく, 正直に情報を掲示 • ただし,全体最適な関数が得られる保証は無い 選ばれた主体は,掲示するデータを 自身の損失関数の不偏推定量とする ため,真の情報を掲示するのが最適 選択されない主体は,いかなるデー タを掲示してもメカニズムに考慮さ れず,偽データを作る意味が無い 12年10月21日日曜日 15
  • 16. メカニズムは各主体から与えられたデータ を用いてf を出力するルール設定 oi (·) oi (·) に従ったデータ生成は, 各主体にとって最適? でなければ,この主体は偽データを生成する データ生成が適切ならば, 学習されるモデルは最適? でなければ,出力されるモデルは不適切 これらの条件を満たすようにメカニズムを設定したい 12年10月21日日曜日 16
  • 17. 本研究の目標 • 以下の条件を満たすメカニズム設計が目標 • Strategyproof : 各主体は正直な掲示が最適 • ˆ ˜ これを満たす時,R(f, S) は RN (f ) の不偏推定量 • Efficient : メカニズムの導出する解が最適解 • 有限個のデータで近似 (Empirical Risk Minimization) Si = {(xij , yij )}m • 各主体の効用に応じた真のデータ j=1 ˜ • チルダが付く場合,表明されたデータ 1 X Si = {(xij , yij )}m ˜ j=1 ˆ • 損失関数 R(f, S) = |S| `(f (x), y) (x,y)2S S = ]i2N Si 12年10月21日日曜日 17
  • 18. メカニズム設計 • 確率分布・仮説空間・損失関数の定義毎にメカニズムの持 つ性質が異なる • それぞれ場合分けして解析を行う • 下記の要素も考慮 • 共謀(複数の主体が同時に偽のデータを作成) • 損失移転(他の主体への影響を,自身の損失に内部化) 12年10月21日日曜日 18
  • 19. 目次 • Incentive Compatible Regression Learning • メカニズムデザイン • 回帰問題のゲーム理論の枠組みでのモデル化 • Case1: Degenerate distribution • Case2: Uniform distribution • Without Money • With Money • 結論 12年10月21日日曜日 19
  • 20. Degenerate distribution xi oi (·) (xi , yi ) ˜ ˜ S ˜ f xj oj (·) (xj , yj ) ˜ • 各主体が扱う入力データは1種類のみ • 応用例 • ウェアハウスの在庫管理 • タスク割当 • 損失関数の形状に応じて,メカニズムの性質も変化 • 本研究は `(↵, ) = µ(|↵ |)の形の損失関数に限る 12年10月21日日曜日 20
  • 21. 目標の整理 ˜ ˜ メカニズムは S から f を出力するルール設定 Strategyproof 偽のラベルを表明しても oi (·) ˆ ˜ Ri (f )を小さく出来ないか? Efficient メカニズムから得られる解 R( ˜ ˆ は, f , S)を最小化するか? これらの条件を満たすようにメカニズムを設定したい 12年10月21日日曜日 21
  • 22. Absolute Lossの場合 • Absolute Loss : `(↵, ) = |↵ | • 仮説集合 F は凸集合 Strategyproof / Efficientなメカニズムが存在 • Group Strategyproofにもなる • 複数の主体が共謀して偽のラベルを与えても,一人以上 が利益を得る場合,少なくとも一人は損をする 12年10月21日日曜日 22
  • 23. ERMメカニズム • 1. 損失の最小値を算出 • ˆ ˜ r = min R(f, S) f 2F • 2. タイブレーク法 Z • ˜ 2 2 f = argmin kf k s.t. kf k = f (x)dx ˆ f 2F :R(f,S)=r Theorem ERMメカニズムは損失関数がAbsolute Lossの時, Group Strategyproof かつ Efficient • Group StrategyproofならばEfficientであることは明らか 12年10月21日日曜日 23
  • 24. 一般の凸損失関数の場合 • ERMメカニズムはStrategyproofとならない • 損失関数: `(↵, ) = µ(|↵ |) • Strategyproofにならない例 • 損失関数: `(↵, ) = k↵ k2 2 • 仮説空間:定数値関数 f (·) = c (x1 , 2) (x1 , 2) f (·) = 1 (x2 , 0) (x2 , 0) メカニズムの損失は2 12年10月21日日曜日 24
  • 25. 一般の凸損失関数の場合 • ERMメカニズムはStrategyproofとならない • 損失関数: `(↵, ) = µ(|↵ |) • Strategyproofにならない例 • 損失関数: `(↵, ) = k↵ k2 2 • 仮説空間:定数値関数 f (·) = c (x1 , 2) (x1 , 4) f (·) = 2 (x2 , 0) (x2 , 0) メカニズムの損失は4 12年10月21日日曜日 25
  • 26. 凸損失関数の場合 • 損失関数の制約 • µ(·) が単調増加かつ厳密に凸,勾配上限無し • 仮説空間の制約 • F 内の仮説が二つ以上 • {hf (x ), . . . , f (x )i : f 2 F } = {f (x ) : f 2 F } ⇥ · · · ⇥ {f (x ) : f 2 F } 1 n 6 1 n Theorem 上記の制約が満たされる時,ERMメカニズムは Strategyproofにならない oi (·) が必ず存在する 12年10月21日日曜日 26
  • 27. 目次 • Incentive Compatible Regression Learning • メカニズムデザイン • 回帰問題のゲーム理論の枠組みでのモデル化 • Case1: Degenerate distribution • Case2: Uniform distribution • Without Money • With Money • 結論 12年10月21日日曜日 27
  • 28. Uniform distribution ⇢i (·) oi (·) {(xik , yik )}k f ⇢j (·) oj (·) {(xjl , yjl )}l • 確率分布 ⇢i (·) は一様分布 • 主体毎に,異なる一様分布の割り当て • 有限種類の入力データが一様で生成 • 損失関数はAbsolute Lossに限定して議論 • 仮説空間の定義に応じ,メカニズムの性質が変化 12年10月21日日曜日 28
  • 29. 仮説空間:定数値関数の場合 • ERMメカニズムは,Strategyproofではない • ERMメカニズムはUniform dist. には不適 (1, 1) (1, 1) (2, 1) (2, 1) ˆ S1 ) = 2 R(f, 3 (3, 0) (3, 0) f (·) = 0 (4, 0) (4, 0) (5, 0) (5, 0) ˆ S2 ) = 1 R(f, 3 (6, 1) (6, 1) 12年10月21日日曜日 29
  • 30. 仮説空間:定数値関数の場合 • ERMメカニズムは,Strategyproofではない • ERMメカニズムはUniform dist. には不適 (1, 1) (1, 1) (2, 1) (2, 1) ˆ S1 ) = 1 R(f, 3 (3, 0) (3, 1) f (·) = 1 (4, 0) (4, 0) (5, 0) (5, 0) ˆ S2 ) = 2 R(f, 3 (6, 1) (6, 1) 12年10月21日日曜日 30
  • 31. Project-and-fitメカニズム (1, 1) (1, 1) (2, 1) (2, 1) f1 (·) = 1 (3, 0) (3, 0) (4, 0) (4, 0) (5, 0) (5, 0) f2 (·) = 0 (6, 1) (6, 1) ˆ 各主体に対して, i = argmin R(f, Si ) を算出 f f 2F 12年10月21日日曜日 31
  • 32. Project-and-fitメカニズム f1 (·) = 1 (1, 1) (1, 1) (1, 1) (2, 1) (2, 1) (2, 1) (3, 0) (3, 0) (3, 1) (4, 0) (4, 0) (4, 0) (5, 0) (5, 0) (5, 0) (6, 1) (6, 1) (6, 0) f2 (·) = 0 各主体のデータに fi を適用し,ラベルを置き換え 12年10月21日日曜日 32
  • 33. Project-and-fitメカニズム (1, 1) (1, 1) (1, 1) (2, 1) (2, 1) (2, 1) (3, 0) (3, 0) (3, 1) f (·) = 0 (4, 0) (4, 0) (4, 0) (5, 0) (5, 0) (5, 0) (6, 1) (6, 1) (6, 0) ラベルを置き換えたデータを用いて,EMRで回帰モデルを学習 12年10月21日日曜日 33
  • 34. Project-and-fitメカニズム • 入力 : 仮説空間 F ,データ S = ]i2N Si • 出力:回帰関数 f • メカニズム ˆ 1. 各主体に対して,fi = argmin R(f, Si ) を算出 f 2F 2. 各主体のラベルを fi で書き換え 3. ラベルを置き換えたデータでERM 12年10月21日日曜日 34
  • 35. Project-and-fitメカニズム 性能 • 仮説空間 • 定数関数=or 一次の斉次線形関数 = a · x f (x) c f (x) Theorem Project-and-fitメカニズムはGroup Strategyproof [6] かつ 3-efficient メカニズムが出力する仮説 f が必ず以下を満たす時,3-efficient ˆ ˆ R(f, S)  3 min R(f, S) f 2F 12年10月21日日曜日 35
  • 36. その他の定理 Theorem 定数関数及び斉次線形関数が仮説空間の場合, (3 ✏) - efficientとなるStrategyproofなメカニズムは存在しない (✏ > 0) Theorem 2次以上の斉次線形関数および一般の線形関数が仮説空 間の場合,Project-and-fitメカニズムはStrategyproofではない 一般の線形関数 : f (x) = a · x + b 一般の線形関数や2次以上の斉次線形関数が仮説空間の場合の, strategyproofかつefficientなメカニズムの存在は明らかでない 12年10月21日日曜日 36
  • 37. 目次 • Incentive Compatible Regression Learning • メカニズムデザイン • 回帰問題のゲーム理論の枠組みでのモデル化 • Case1: Degenerate distribution • Case2: Uniform distribution • Without Money • With Money • 結論 12年10月21日日曜日 37
  • 38. 損失移転が可能な場合 • VCGメカニズム [3][4][5] • ERMメカニズムで仮説 f を選択 • ˆ ˆ ˜ ただし,各主体は R(f, Si ) に加え R(f, S i )が損失 に計上される (メカニズムによる損失移転) • 偽データ作成の際に他の主体の損失が上昇すると, 自身の損失も上昇 • 各主体の目標とメカニズムの目標が一致する Theorem VCGメカニズムはいかなる損失関数に対しても Strategyproof かつ Efficient 12年10月21日日曜日 38
  • 39. VCGメカニズムの問題点 • Not Group Strategyproof • 共謀によって偽のデータを掲示される可能性 • 損失移転に関わる問題 • ˆ ˜ R(f, S i ) の損失を課すのは現実的には困難 • 報酬額を調節? • しかし,ˆ S i ) の値と報酬額の関係は非 R(f, ˜ 自明 12年10月21日日曜日 39
  • 40. 結論 • Incentive Compatible Regression Learningを紹介 • 機械学習に Incentive の概念を導入 • 様々な確率分布・損失関数・仮説空間の設定の場合,そ れぞれ有効なメカニズムやその性質を概観 • 本論文では,Arbitrary distributionの場合の解析もある • ただし,研究は未だ限定的で明らかにすべき事項は多い • 分類問題への拡張 • Absolute Loss以外の損失関数への拡張 12年10月21日日曜日 40
  • 41. Reference [1] F. Caro, J. Gallien. Inventory management of a fast-fashion retail network, Oper. Res., 2010. [2] F. Caro, J. Gallien, M.D. Marianda, J.C. Torralbo, J.M.C. Corras, M.M. Vazquez, J.A.R. Calamonte, J. Correa, Zara uses operations research to reeenginner its global distribution process, Interfaces, 2010. [3] W.Vickrey, Counter speculation, auctions and competitive sealed tenders, J.Finance, 1961. [4] E.H. Clarke, Multipart pricing of public goods, Public Choice, 1971. [5] T. Groves, Incentives in teams, Econometrica, 1973. [6] H. Moulin, Generalized Condorcet-winners for single peaked and single-plateau preferences, Soc. Choice Welf. 1984. 12年10月21日日曜日 41