13. Filter Bubble
• The Filter Bubble: What the Internet Is Hiding from You
– Eli Pariser (2011)
• ウェブにおけるパーソナライゼーションの負の側面を指
摘
– 多様な情報に触れる機会が減らされている.
• Recsys 2011でFilterBubbleのWorkshopが開かれる.
– Are there “filter bubbles”?
– To what degree is personalized filtering problem?
– What should we as a community do to address the filter bubble
issue?
14. Filter Bubble
• Recsys2011での議論
– Are there “filter bubbles”?
• 本質的にはトレードオフである
– To what degree is personalized filtering problem?
• すべての情報を人が網羅することは不可能なのでフィルタリング技
術は必須である
– What should we as a community do to address the filter bubble
issue?
• 推薦の透明性,説明性を確保すべき
• 利用者が現在求めるものだけでなく,長期的多様性も考慮
• アイテムごとの個別判断ではなく,推薦リスト全体の良さを追求
• 何が問題だったのか?(私見)
– 推薦システムの評価方法がユーザ体験を考慮していない
• 5年分のデータのうち最初の1年で残りの4年を予測する
• ユーザの行動予測問題
15. From Algorithm to User Experience
• Recommender Systems: from algorithms to user experience
– Joseph A. Konstan and John Riedl,User Modeling and User
adapted Interaction(2012)
– 推薦システムのユーザ体験評価についてのサーベイ論文
• 推薦システムが悪いとユーザのサービスに対する満足度を落
とす (Cosley et al. 2003)
– ユーザは推薦システムが悪いとは認識しない
• 推薦システムのライフサイクル
– 新規ユーザと既存ユーザの推薦システムに対する期待の違い.
• より洗練された評価基準
– ユーザ行動予測以外の評価基準
– 推薦結果全体の評価、多様性
• ユーザが推薦システムをコントロールすること
16. User Recommender Lifecycle
• New User Problem
– 評価値データがない( cold start problem)
– 人気なものと,評価が割れるものを混ぜて推薦するものが継続
率が高い ( Rashid et al 2002)
• 推薦していないにも関わらずユーザはすごく精度が高いと評価する
• ユーザモデルも作りやすい
• User Lifecycle (McNee 2006)
1. 推薦エンジンを観察する.
2. 推薦されるアイテムに関心をもち,多くのアイテムを評価す
るようになる
3. 推薦システムとして活用するようになる
17. Recommender System Quality
• Top-N Recommendation
– Mean Absolute Error
• 平均絶対誤差
– Precision, Recall
• 検索エンジンの指標
– False positive, False negative
• ROE curve トレードオフ,
• Diversity Problem (Ziegler et al. 2005)
– 推薦対象でないものを結果リストに差し込む
• ユーザは個人に最適化されてないことを認識するが,差し込まれた
量が全体の30%程度であれば差し込まれた方を好む
• Data quality
– ユーザにアイテムを再評価させると評価結果が改善す
る.(Amatriain et al. 2009)
18. Explanations and Transparency
• Explanations of recommendation (Tintarev et al. 2007)
– Transparency
• どのように推薦結果が決められたか説明することで信頼性を上げる
ことができる
– Trust
• 推薦結果の正確性以外の部分で努力する必要がある.
– Scrutability
• ユーザが推薦に用いるデータの過ちに気づき,改善を自身で行うこ
とができる.
• 説明性を高めることで,ユーザの意思決定を促進するこ
とできる.
– アルゴリズムが洗練されて正しいことより,近い友人が薦めて
いるという説明のほうが効果がある. (Herlocker et al. 2000)
– 多様性を計算することより,タグをつけて多様であるように見
えるほうが効果がある.(Vig et al. 2009)
19. 推薦システムの効果
• Youtubeにおける推薦
• James Davidson et al. (RecSys’10)
– co-Viewを用いた単純な協調フィルタリングモデルでランキング
と比較して207%クリックが向上した
• ブラジル2位のECサイトにおける推薦
• ThiagoBullef et al. (RecSys’12)
– 90万人のユーザのうち5%のユーザに推薦システムを用いないこ
とにして比較
– 8-20%の売上の向上が見られた
• 経済シミュレーションにおける多様性の評価
• Daniel Fleder et al.
– 多様なコンテンツに対するアクションが成立するかは,そのシ
ステムの教師データに依存する.
27. References (1/2)
• Panel on the filter bubble in RecSys 2011
– http://acmrecsys.wordpress.com/2011/10/25/panel-on-the-filter-
bubble/
– 情報中立推薦システム (神嶌ら)
• http://www.kamishima.net/archive/2012-p-jsai-PR.pdf
• Recommender systems: from algorithm to user experience
– Joseph A. Konstan, John Riedl
– User Modeling and User-Adapted Interaction Vol.12 pp-101-123
2012
• Getting to you know: learning new user preferences in
recommender systems
– Rashid et al.
– IUI’02
• Is seeing believing?: how recommender system interfaces
affect user opinion.
– Cosley et al.
– CHI’03
28. References
• Making recommendations better: an analytic model for
human-recommender interaction
– McMee et al.
– CHI’06
• Improvingrecommendation lists through topic diversification
– Ziegler et al.
– WWW’05
• Rate it againL increasing recommendation accuracy by user
re-rating
– Amatriain et al.
– RecSys’09
• Effective ecplanations of recommendations: user-centered
design
– Tintarev et al.
– RecSys’07
29. References
• Explaining collaborative filtering recommendations
– Herlocker et al.
– CSCW’00
• Tagsplanations: explaining recommendation using tag
– Vig et al.
– IUI’09
• The YouTube Video Recommendation System
– Davidson et al.
– RecSys’10
• Case Study on the Business Value Impact of Personalized
Recommendations on a Large Online Retailer
– Belluf et al.
– RecSys’12
• Recommender Systems and their Impact on Sales Diversity
– Fleder et al.
– EC’07