SlideShare a Scribd company logo
1 of 23
Download to read offline
無限関係モデル
続・わかりやすいパターン認識
第13章「共クラスタリング」より
2017/9/20 @shuyo
乱雑なパターン
• 規則性ありそうな、なさそうな
0 1 0 0 0 1 1 1 0 0 0 0 1 1 0
0 1 0 0 1 1 1 0 1 0 0 0 0 1 0
1 0 1 0 1 0 0 0 0 1 1 0 1 0 0
0 0 0 1 1 1 0 1 0 0 0 1 0 0 0
1 0 0 0 0 0 0 0 0 1 1 0 1 0 0
0 0 0 1 1 0 0 0 0 0 0 1 0 0 1
1 0 1 0 0 0 0 0 0 1 1 0 1 1 0
0 1 0 1 0 1 1 1 1 0 0 0 0 1 0
0 1 0 0 0 1 0 0 0 0 1 0 1 1 0
0 1 0 0 0 1 0 0 1 0 0 0 0 1 0
1 0 0 0 1 1 1 0 1 0 0 1 0 1 0
0 1 0 1 0 0 0 1 0 0 0 1 0 0 0
1 0 0 0 0 0 0 0 0 1 0 0 1 1 0
0 0 0 1 1 1 0 1 0 0 0 1 0 0 1
0 0 0 1 1 0 0 1 0 0 0 1 1 1 1
例えば
顧客
例えば
商品
買ったら 1
クラスタリング
• 縦横それぞれに、
うまくクラスタ番号をつけて、
3 1 3 0 0 2 1 0 1 3 3 0 3 2 0
1 0 1 0 0 0 1 1 1 0 0 0 0 1 1 0
1 0 1 0 0 1 1 1 0 1 0 0 0 0 1 0
2 1 0 1 0 1 0 0 0 0 1 1 0 1 0 0
0 0 0 0 1 1 1 0 1 0 0 0 1 0 0 0
2 1 0 0 0 0 0 0 0 0 1 1 0 1 0 0
0 0 0 0 1 1 0 0 0 0 0 0 1 0 0 1
2 1 0 1 0 0 0 0 0 0 1 1 0 1 1 0
1 0 1 0 1 0 1 1 1 1 0 0 0 0 1 0
1 0 1 0 0 0 1 0 0 0 0 1 0 1 1 0
1 0 1 0 0 0 1 0 0 1 0 0 0 0 1 0
1 1 0 0 0 1 1 1 0 1 0 0 1 0 1 0
0 0 1 0 1 0 0 0 1 0 0 0 1 0 0 0
2 1 0 0 0 0 0 0 0 0 1 0 0 1 1 0
0 0 0 0 1 1 1 0 1 0 0 0 1 0 0 1
0 0 0 0 1 1 0 0 1 0 0 0 1 1 1 1
クラスタ順に並べ替えると
• 規則性ありそう!
0 0 0 0 0 1 1 1 2 2 3 3 3 3 3
0 1 1 1 1 0 0 0 0 1 0 0 0 0 0 0
0 1 1 0 1 1 0 0 0 0 0 0 0 0 0 0
0 1 0 1 1 0 1 0 0 0 0 0 0 0 0 0
0 1 1 1 1 1 0 0 0 1 0 0 0 0 0 0
0 1 1 1 1 1 0 0 0 0 1 0 0 0 0 1
1 0 0 1 0 0 1 1 0 1 1 0 0 0 0 1
1 0 1 0 0 0 1 1 1 1 1 0 0 0 0 0
1 1 0 1 0 0 1 1 1 1 1 0 0 0 0 0
1 0 0 0 0 0 1 0 0 1 1 0 0 0 1 1
1 0 0 0 0 0 1 0 1 1 1 0 0 0 0 0
1 0 1 0 1 0 0 1 1 1 1 1 0 0 0 0
2 0 1 0 0 0 0 0 0 0 0 1 1 1 1 1
2 0 0 0 0 0 0 0 0 0 0 1 0 1 1 1
2 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1
2 0 0 0 0 0 0 0 0 0 1 1 0 1 0 1
各群ごとに
買いそうな
商品がわかる
関係データ解析
• 2種類(以上)の対象間の「関係」を解析し、
対象/関係について分類や予測などを行う
– 関係=データの組
• 重みなし(リンクの有無 0/1 のみ) or あり
– 関係を要素に持つ関係行列(テンソル)で表現
と の関係
• (同等な二部グラフで表現することも)
協調フィルタリング
• 関係データ解析の一種
– 今回の対象外だが一応紹介
• 関係=ユーザと商品
– ユーザ i が商品 j を購入したら
• 目的=ユーザの興味を持つ商品を予測
– ユーザ i に対し となる商品 j を知りたい
• 解法=行列分解など
分析したい関係データは
いっぱいある
• 文書 - 単語
• 単語 - 文脈
• 山 - 植物や動物
• ユーザ - 利用機能や購入履歴
• ユーザ - ユーザの関係(フォローなど)
• etc...
共クラスタリング
• 関係行列をもとに、2軸それぞれクラスタ
リングする手法
0 1 0 0 0 1 1 1 0 0 0 0 1 1 0
0 1 0 0 1 1 1 0 1 0 0 0 0 1 0
1 0 1 0 1 0 0 0 0 1 1 0 1 0 0
0 0 0 1 1 1 0 1 0 0 0 1 0 0 0
1 0 0 0 0 0 0 0 0 1 1 0 1 0 0
0 0 0 1 1 0 0 0 0 0 0 1 0 0 1
1 0 1 0 0 0 0 0 0 1 1 0 1 1 0
0 1 0 1 0 1 1 1 1 0 0 0 0 1 0
0 1 0 0 0 1 0 0 0 0 1 0 1 1 0
0 1 0 0 0 1 0 0 1 0 0 0 0 1 0
1 0 0 0 1 1 1 0 1 0 0 1 0 1 0
0 1 0 1 0 0 0 1 0 0 0 1 0 0 0
1 0 0 0 0 0 0 0 0 1 0 0 1 1 0
0 0 0 1 1 1 0 1 0 0 0 1 0 0 1
0 0 0 1 1 0 0 1 0 0 0 1 1 1 1
0 0 0 0 0 1 1 1 2 2 3 3 3 3 3
0 1 1 1 1 0 0 0 0 1 0 0 0 0 0 0
0 1 1 0 1 1 0 0 0 0 0 0 0 0 0 0
0 1 0 1 1 0 1 0 0 0 0 0 0 0 0 0
0 1 1 1 1 1 0 0 0 1 0 0 0 0 0 0
0 1 1 1 1 1 0 0 0 0 1 0 0 0 0 1
1 0 0 1 0 0 1 1 0 1 1 0 0 0 0 1
1 0 1 0 0 0 1 1 1 1 1 0 0 0 0 0
1 1 0 1 0 0 1 1 1 1 1 0 0 0 0 0
1 0 0 0 0 0 1 0 0 1 1 0 0 0 1 1
1 0 0 0 0 0 1 0 1 1 1 0 0 0 0 0
1 0 1 0 1 0 0 1 1 1 1 1 0 0 0 0
2 0 1 0 0 0 0 0 0 0 0 1 1 1 1 1
2 0 0 0 0 0 0 0 0 0 0 1 0 1 1 1
2 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1
2 0 0 0 0 0 0 0 0 0 1 1 0 1 0 1
共クラスタリング
• 各クラスタ ごとの生起確率
– 縦軸のクラスタを 、横軸のを と表す
• 各データの所属クラスタ
• データ の生起確率
– ただし
0 0 0 0 0 1 1 1 2 2 3 3 3 3 3
0 1 1 1 1 0 0 0 0 1 0 0 0 0 0 0
0 1 1 0 1 1 0 0 0 0 0 0 0 0 0 0
0 1 0 1 1 0 1 0 0 0 0 0 0 0 0 0
0 1 1 1 1 1 0 0 0 1 0 0 0 0 0 0
0 1 1 1 1 1 0 0 0 0 1 0 0 0 0 1
1 0 0 1 0 0 1 1 0 1 1 0 0 0 0 1
1 0 1 0 0 0 1 1 1 1 1 0 0 0 0 0
1 1 0 1 0 0 1 1 1 1 1 0 0 0 0 0
1 0 0 0 0 0 1 0 0 1 1 0 0 0 1 1
1 0 0 0 0 0 1 0 1 1 1 0 0 0 0 0
1 0 1 0 1 0 0 1 1 1 1 1 0 0 0 0
2 0 1 0 0 0 0 0 0 0 0 1 1 1 1 1
2 0 0 0 0 0 0 0 0 0 0 1 0 1 1 1
2 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1
2 0 0 0 0 0 0 0 0 0 1 1 0 1 0 1
クラスタ数を
いくつにすればいい?
無限関係モデル(IRM)
[Kemp+ 2006]
• クラスタを無限分割モデルから生成
– パラメータと同時にクラスタ数も学習
– クラスタ数をあらかじめ決めなくて良い
• 無限分割モデル
– Hoppe の壺、中華料理店過程(CRP)
Hoppe の壺
1. 最初に壺に黒玉が1つ入っている
2. 壺から玉を一つ取り出したとき、
– それが黒なら新しい色の玉を加えて一緒に戻す
– それが黒以外なら、同じ色の玉を加えて一緒に戻す
– 黒玉には重み 、それ以外には重み 1 を持たせて、
選択率は重みに応じて決める
3. 2 に戻ってくり返し
n番目に、
色玉を引く確率
各色玉の数
黒玉を引く確率
中華料理店過程(CRP)
• Hoppe の壺と同等なので略
– 「色」がテーブルに、玉が客になる
• 壺や CRP で何がうれしい?
– 任意のクラスタ数に非ゼロの確率をわりあてられ
る
– 事後分布からのサンプリングができる
• → ベイズモデルを MCMC で解ける!
• CRP の類を事前分布に採用したモデルを
ノンパラベイズと呼ぶ
あらためて Notation
• :縦データ数(例:顧客数)
• :横データ数(例:商品数)
• 例:顧客 が商品 を購入した/しない
• : 顧客の 番目のクラスタ
• : 商品の 番目のクラスタ
• :顧客 のクラスタ
• :商品 のクラスタ
IRM の同時分布(生成モデル)
• ベルヌーイ分布
•
– ベルヌーイ分布 の共役事前分布
• はクラスタ割り当ての事前分布
Collapsed Gibbs Sampling
(周辺化ギブスサンプリング)
• クラスタの推定
• パラメータ はいらないので、周辺化
• 以外を止めて、全条件付き事後分布からサンプリング
佐藤一誠「ノンパラメトリック
ベイズ」での訳語
ぞくパタでは「崩壊型」といってる
全条件付き事後分布の計算
– はベータ関数
クラスタ に属す の個数 を除く
,
,
クラスタ で である個数
,
,
クラスタ で である個数
※ぞくパタ13章の数式には間違いがあるので注意
http://d.hatena.ne.jp/n_shuyo/20160203/infinite_relational_model
数え方
• の1/0の個数
• 行除く
• クラスタ 行
0 0 1 0 0 1 1 0 1 1 0 0 0 0 1
0 1 0 0 0 1 1 1 1 1 0 0 0 0 0
1 0 1 0 0 1 1 1 1 1 0 0 0 0 0
k 0 0 0 0 0 1 0 0 1 1 0 0 0 1 1
0 0 0 0 0 1 0 1 1 1 0 0 0 0 0
0 1 0 1 0 0 1 1 1 1 1 0 0 0 0
(i, j)
でも……
本当に食わせたいデータは
0/1 ではなかった……
ポアソン分布に拡張しちゃおう!
•
↓
•
– の分布をベルヌーイ分布からポワソン分布へ
– ポアソン分布の共役事前分布はガンマ分布
• きれいな共役事前分布があれば、事後分布が静的に計算できる
非負整数
0/1
ポアソン分布版 事後分布
,
,
クラスタ の の合計
,
,
クラスタ の の個数
実装
• https://github.com/shuyo/iir/blob/master/clustering/irm.py
– 公開できないデータで実験したので、結果は略
– 実装は「だいぶめんどくさい LDA」なイメージ
• でも は毎回数えている……
– ポアソン分布版は PoissonIRM クラス
• ポアソン分布が外れ値に弱いため、外れ値があると1要
素のみのクラスタに分かれてしまう……
• ロバストにしたいところだが(負の二項分布とか)、きれい
な共役事前分布がないと簡単なアルゴリズムに落とせ
ない
References
• [石井,上田 2014] 続・わかりやすいパ
ターン認識
• [Kemp+ 2006] Learning Systems of
Concepts with an Infinite Relational
Model

More Related Content

What's hot

2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)Tatsuya Yokota
 
統計学勉強会#2
統計学勉強会#2統計学勉強会#2
統計学勉強会#2Hidehisa Arai
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 
ナレッジグラフ入門
ナレッジグラフ入門ナレッジグラフ入門
ナレッジグラフ入門KnowledgeGraph
 
SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)Kazuyuki Wakasugi
 
指数分布とポアソン分布のいけない関係
指数分布とポアソン分布のいけない関係指数分布とポアソン分布のいけない関係
指数分布とポアソン分布のいけない関係Nagi Teramo
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)ryotat
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題joisino
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章Shuyo Nakatani
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明Satoshi Hara
 
XAI (説明可能なAI) の必要性
XAI (説明可能なAI) の必要性XAI (説明可能なAI) の必要性
XAI (説明可能なAI) の必要性西岡 賢一郎
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)Satoshi Hara
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)Masahiro Suzuki
 
“機械学習の説明”の信頼性
“機械学習の説明”の信頼性“機械学習の説明”の信頼性
“機械学習の説明”の信頼性Satoshi Hara
 
pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話Classi.corp
 
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有Naoaki Okazaki
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門Momoko Hayamizu
 

What's hot (20)

2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
 
統計学勉強会#2
統計学勉強会#2統計学勉強会#2
統計学勉強会#2
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
ナレッジグラフ入門
ナレッジグラフ入門ナレッジグラフ入門
ナレッジグラフ入門
 
SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)
 
指数分布とポアソン分布のいけない関係
指数分布とポアソン分布のいけない関係指数分布とポアソン分布のいけない関係
指数分布とポアソン分布のいけない関係
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
 
XAI (説明可能なAI) の必要性
XAI (説明可能なAI) の必要性XAI (説明可能なAI) の必要性
XAI (説明可能なAI) の必要性
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
“機械学習の説明”の信頼性
“機械学習の説明”の信頼性“機械学習の説明”の信頼性
“機械学習の説明”の信頼性
 
pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話
 
深層強化学習と実装例
深層強化学習と実装例深層強化学習と実装例
深層強化学習と実装例
 
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門
 

Viewers also liked

Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)Shuyo Nakatani
 
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Yuki Matsubara
 
EMNLP 2015 yomikai
EMNLP 2015 yomikai EMNLP 2015 yomikai
EMNLP 2015 yomikai Yo Ehara
 
Humor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor ExtractionHumor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor Extraction裕樹 奥田
 
Learning Better Embeddings for Rare Words Using Distributional Representations
Learning Better Embeddings for Rare Words Using Distributional RepresentationsLearning Better Embeddings for Rare Words Using Distributional Representations
Learning Better Embeddings for Rare Words Using Distributional RepresentationsTakanori Nakai
 
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...Shuyo Nakatani
 
数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013Shuyo Nakatani
 
強化学習その1
強化学習その1強化学習その1
強化学習その1nishio
 
A Neural Attention Model for Sentence Summarization [Rush+2015]
A Neural Attention Model for Sentence Summarization [Rush+2015]A Neural Attention Model for Sentence Summarization [Rush+2015]
A Neural Attention Model for Sentence Summarization [Rush+2015]Yuta Kikuchi
 
星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章Shuyo Nakatani
 

Viewers also liked (13)

Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)
 
PRML 2.3
PRML 2.3PRML 2.3
PRML 2.3
 
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
EMNLP 2015 yomikai
EMNLP 2015 yomikai EMNLP 2015 yomikai
EMNLP 2015 yomikai
 
Humor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor ExtractionHumor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor Extraction
 
Learning Better Embeddings for Rare Words Using Distributional Representations
Learning Better Embeddings for Rare Words Using Distributional RepresentationsLearning Better Embeddings for Rare Words Using Distributional Representations
Learning Better Embeddings for Rare Words Using Distributional Representations
 
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
 
Emnlp読み会資料
Emnlp読み会資料Emnlp読み会資料
Emnlp読み会資料
 
数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013
 
強化学習その1
強化学習その1強化学習その1
強化学習その1
 
A Neural Attention Model for Sentence Summarization [Rush+2015]
A Neural Attention Model for Sentence Summarization [Rush+2015]A Neural Attention Model for Sentence Summarization [Rush+2015]
A Neural Attention Model for Sentence Summarization [Rush+2015]
 
星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章
 

More from Shuyo Nakatani

画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15Shuyo Nakatani
 
Generative adversarial networks
Generative adversarial networksGenerative adversarial networks
Generative adversarial networksShuyo Nakatani
 
人工知能と機械学習の違いって?
人工知能と機械学習の違いって?人工知能と機械学習の違いって?
人工知能と機械学習の違いって?Shuyo Nakatani
 
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRRとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRShuyo Nakatani
 
ドラえもんでわかる統計的因果推論 #TokyoR
ドラえもんでわかる統計的因果推論 #TokyoRドラえもんでわかる統計的因果推論 #TokyoR
ドラえもんでわかる統計的因果推論 #TokyoRShuyo Nakatani
 
言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyo言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyoShuyo Nakatani
 
Zipf? (ジップ則のひみつ?) #DSIRNLP
Zipf? (ジップ則のひみつ?) #DSIRNLPZipf? (ジップ則のひみつ?) #DSIRNLP
Zipf? (ジップ則のひみつ?) #DSIRNLPShuyo Nakatani
 
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...Shuyo Nakatani
 
ソーシャルメディアの多言語判定 #SoC2014
ソーシャルメディアの多言語判定 #SoC2014ソーシャルメディアの多言語判定 #SoC2014
ソーシャルメディアの多言語判定 #SoC2014Shuyo Nakatani
 
猫に教えてもらうルベーグ可測
猫に教えてもらうルベーグ可測猫に教えてもらうルベーグ可測
猫に教えてもらうルベーグ可測Shuyo Nakatani
 
アラビア語とペルシャ語の見分け方 #DSIRNLP 5
アラビア語とペルシャ語の見分け方 #DSIRNLP 5アラビア語とペルシャ語の見分け方 #DSIRNLP 5
アラビア語とペルシャ語の見分け方 #DSIRNLP 5Shuyo Nakatani
 
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013Shuyo Nakatani
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門Shuyo Nakatani
 
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...Shuyo Nakatani
 
Short Text Language Detection with Infinity-Gram
Short Text Language Detection with Infinity-GramShort Text Language Detection with Infinity-Gram
Short Text Language Detection with Infinity-GramShuyo Nakatani
 
[Karger+ NIPS11] Iterative Learning for Reliable Crowdsourcing Systems
[Karger+ NIPS11] Iterative Learning for Reliable Crowdsourcing Systems[Karger+ NIPS11] Iterative Learning for Reliable Crowdsourcing Systems
[Karger+ NIPS11] Iterative Learning for Reliable Crowdsourcing SystemsShuyo Nakatani
 
極大部分文字列を使った twitter 言語判定
極大部分文字列を使った twitter 言語判定極大部分文字列を使った twitter 言語判定
極大部分文字列を使った twitter 言語判定Shuyo Nakatani
 
人間言語判別 カタルーニャ語編
人間言語判別 カタルーニャ語編人間言語判別 カタルーニャ語編
人間言語判別 カタルーニャ語編Shuyo Nakatani
 
Extreme Extraction - Machine Reading in a Week
Extreme Extraction - Machine Reading in a WeekExtreme Extraction - Machine Reading in a Week
Extreme Extraction - Machine Reading in a WeekShuyo Nakatani
 
言語判定へのいざない
言語判定へのいざない言語判定へのいざない
言語判定へのいざないShuyo Nakatani
 

More from Shuyo Nakatani (20)

画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
 
Generative adversarial networks
Generative adversarial networksGenerative adversarial networks
Generative adversarial networks
 
人工知能と機械学習の違いって?
人工知能と機械学習の違いって?人工知能と機械学習の違いって?
人工知能と機械学習の違いって?
 
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRRとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
 
ドラえもんでわかる統計的因果推論 #TokyoR
ドラえもんでわかる統計的因果推論 #TokyoRドラえもんでわかる統計的因果推論 #TokyoR
ドラえもんでわかる統計的因果推論 #TokyoR
 
言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyo言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyo
 
Zipf? (ジップ則のひみつ?) #DSIRNLP
Zipf? (ジップ則のひみつ?) #DSIRNLPZipf? (ジップ則のひみつ?) #DSIRNLP
Zipf? (ジップ則のひみつ?) #DSIRNLP
 
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
 
ソーシャルメディアの多言語判定 #SoC2014
ソーシャルメディアの多言語判定 #SoC2014ソーシャルメディアの多言語判定 #SoC2014
ソーシャルメディアの多言語判定 #SoC2014
 
猫に教えてもらうルベーグ可測
猫に教えてもらうルベーグ可測猫に教えてもらうルベーグ可測
猫に教えてもらうルベーグ可測
 
アラビア語とペルシャ語の見分け方 #DSIRNLP 5
アラビア語とペルシャ語の見分け方 #DSIRNLP 5アラビア語とペルシャ語の見分け方 #DSIRNLP 5
アラビア語とペルシャ語の見分け方 #DSIRNLP 5
 
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門
 
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
 
Short Text Language Detection with Infinity-Gram
Short Text Language Detection with Infinity-GramShort Text Language Detection with Infinity-Gram
Short Text Language Detection with Infinity-Gram
 
[Karger+ NIPS11] Iterative Learning for Reliable Crowdsourcing Systems
[Karger+ NIPS11] Iterative Learning for Reliable Crowdsourcing Systems[Karger+ NIPS11] Iterative Learning for Reliable Crowdsourcing Systems
[Karger+ NIPS11] Iterative Learning for Reliable Crowdsourcing Systems
 
極大部分文字列を使った twitter 言語判定
極大部分文字列を使った twitter 言語判定極大部分文字列を使った twitter 言語判定
極大部分文字列を使った twitter 言語判定
 
人間言語判別 カタルーニャ語編
人間言語判別 カタルーニャ語編人間言語判別 カタルーニャ語編
人間言語判別 カタルーニャ語編
 
Extreme Extraction - Machine Reading in a Week
Extreme Extraction - Machine Reading in a WeekExtreme Extraction - Machine Reading in a Week
Extreme Extraction - Machine Reading in a Week
 
言語判定へのいざない
言語判定へのいざない言語判定へのいざない
言語判定へのいざない
 

Recently uploaded

[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略Ryo Sasaki
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムsugiuralab
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Danieldanielhu54
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 

Recently uploaded (9)

[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 

無限関係モデル (続・わかりやすいパターン認識 13章)