SlideShare a Scribd company logo
1 of 45
Download to read offline
実装ゼミ
井上研 M1 高品 佑也
2017 前期
1
本ゼミの目標
線形回帰や階層的クラスタリングなど初歩的なアルゴリズム
の実装を通じて、ある程度の機械学習アルゴリズムであれば
自力で組めるようにする。
2
進め方
2 週で 1 つのアルゴリズム。
1 週目に理論、 2 週目に実装。
1 週目が終わったら、 2 週目までに宿題として実装。
2 週目はコードレビュー。
3
今後の予定
1‐2週: 線形回帰
3‐4週: 階層的クラスタリング
それ以降: 未定﴾SVM/ニューラルネット/隠れマルコフ﴿
4
最初の 2 つを選んだ理由
アルゴリズムとデータ構造は密接に関係している。
線形回帰は行列、階層的クラスタリングは木構造と結び付け
て、理論から実装への流れを学ぶ。
5
第 1‐2 週
行列と線形回帰
6
行列
要素を縦と横に並べたもの。
プログラム的には 2 次元配列で表せる。
// 単位行列
var eye = new double[,] {{1, 0}, {0, 1}};
世の中にはたくさんの行列計算ライブラリがある。
BLAS: Basic Linear Algebra Subprograms
アルゴリズムを行列計算のレベルに落とし込むことで、
これらの資産を享受できる。
7
線形回帰
目的変数 t を、説明変数 x と重み w 、ガウスノイズ ϵ を用い
て次式のように表すとする。
t = y(x, w) + ϵ
where y(x, w) = w ϕ (x) =w ϕ(x)
j=0
∑
M−1
j j
⊤
8
目的変数 t の確率密度関数は次式で表される。
p(t∣x, w, σ) = N(t∣y(x, w), σ)
線形回帰の係数 w は以下の最尤推定で求まる。
w = arg N(t ∣y(x , w), σ)ML
w
max
i=0
∏
N−1
i i
9
結果として、次式が得られる。
w =Φ t = Φ Φ Φ t
where Φ =ϕ (x )
ML
+
( ⊤
)
−1 ⊤
ij j i
10
結局やること
1. データと基底から計画行列 Φ を求める。
2 次元配列に値を格納していくだけ。
2. 最尤推定で w を求める。
ただの行列計算。
3. 求めたパラメータで回帰。
ただの線形結合。
11
1. データと基底から計画行列 Φ を求める
Φ = ϕ (x )
static double[,] DesignMatrix(
    double[] data, Func<double, double>[] bases)
{
    var (n, m) = (data.Length, bases.Length);
    var matrix = new double[n, m];
    for (var i = 0; i < n; i++)
        for (var j = 0; j < m; j++)
            matrix[i, j] = bases[j](data[i]);
    return matrix;
}
ij j i
12
2. 最尤推定で w を求める
w =Φ t = Φ Φ Φ t
var designMatrix = DesignMatrix(data, bases);
var weights = designMatrix.PseudoInverse().Dot(output);
static double[,] PseudoInverse(this double[,] matrix)
{
    return matrix.Transpose().Dot(matrix).Inverse()
        .Dot(matrix.Transpose());
}
実際には線形方程式のソルバを使ったほうが早い。
ML
+ ( ⊤ )−1 ⊤
13
3. 求めたパラメータで回帰
y(x, w) =w ϕ(x)
var predict = LinearCombination(weights, bases);
var predicted = predict(input);
Console.WriteLine($"input: {input}, predicted: {predicted}");
// e.g. input: 1, predicted: 0.838320107030773
static Func<double, double> LinearCombination(
    double[] weights, Func<double, double>[] bases)
{
    return x => weights.Zip(bases, (w, b) => w * b(x)).Sum();
}
⊤
14
実装例
GitHub に置いておきます﴾C#﴿。
下の RegressionDemo 以下。
https://github.com/y‐takashina/SemiImpl
15
コードレビュー
Don't take it personally.
"あなた自身を非難しているわけではありません"
16
第 3‐4 週
木構造と階層的クラスタリング
17
木構造
閉路を持たないグラフ。
木構造は再帰的な処理と相性が良い。
分割統治法・動的計画法など。
18
階層的クラスタリング
データ点・クラスタを距離が近い順に結合していくことを、
クラスタが 1 つになるまで行う。
距離にはデータ点間の距離とクラスタ間の距離がある。
19
データ点間の距離の例
ユークリッド距離
d(x ,x ) = ∣∣x −x ∣∣
コサイン類似度
d(x ,x ) =
行列﴾無向グラフなど﴿
d(x ,x ) =A
i j i j 2
1
i j
∣∣x ∣∣ ∣∣x ∣∣i j
x xi
⊤
j
i j i,j
20
クラスタ間の距離の例
最短距離法
D(c , c ) = d(x ,x )
群平均法
D(c , c ) = d(x ,x )
ウォード法
D(c , c ) = ∣c ∪ c ∣var[c ∪ c ] − (∣c ∣var[c ] + ∣c ∣var[c ])
i j
x ∈ck i
min
x ∈cl j
min k l
i j
∣c ∣∣c ∣i j
1
x ∈ck i
∑
x ∈cl j
∑ k l
i j i j i j i i j j
21
クラスタ間距離の計算方法
例として最短距離法を考える。
D(c , c ) = d(x ,x )
最も近いペアの距離をクラスタ間の距離とする。
もっとも近い点のペアを見つける探索問題と等価。
i j
x ∈ck i
min
x ∈cl j
min k l
22
点からクラスタへの距離
1. まず片方を固定し、反対側で最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
23
点からクラスタへの距離
1. まず片方を固定し、反対側で最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
24
点からクラスタへの距離
1. まず片方を固定し、反対側で最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
25
点からクラスタへの距離
1. まず片方を固定し、反対側で最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
26
点からクラスタへの距離
1. まず片方を固定し、反対側で最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
27
点からクラスタへの距離
クラスタ c のうち、点 x から最も近い点が求まった。
クラスタ c についても探索する。
j k
i
28
クラスタからクラスタへの距離
2. 固定していた方を動かし、最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
29
クラスタからクラスタへの距離
2. 固定していた方を動かし、最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
30
クラスタからクラスタへの距離
2. 固定していた方を動かし、最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
31
クラスタからクラスタへの距離
2. 固定していた方を動かし、最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
32
クラスタからクラスタへの距離
2. 固定していた方を動かし、最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
33
クラスタからクラスタへの距離
2. 固定していた方を動かし、最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
34
クラスタからクラスタへの距離
2. 固定していた方を動かし、最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
35
クラスタからクラスタへの距離
クラスタ c , c の要素のうち、最も近いペアが求まった。
最短距離法では、このペアの距離がクラスタ間の距離。
i j
36
探索の方法
探索を用いて最短距離を計算する方法を示したが、探索方法
自体は指定していなかった。
探索はリニアサーチでもできるが、今回は木構造なので深さ
優先探索を行う。
37
結局やること
0. データ構造を用意する。
1. クラスタ間の距離の計算部分を書く。
点からクラスタへの距離。
クラスタからクラスタへの距離。
2. 最も近いクラスタ同士を結合していく。
38
0. データ構造を用意する
一部コードは省略。
abstract class Cluster
{
    abstract double DistanceTo(Cluster cluster);
}
class Single : Cluster 
{
    public double Value;
}
class Couple: Cluster
{
    public Cluster Left, Right;
}
39
1a. 点からクラスタへの距離
D(c , c ) = d(x ,x )
class Single : Cluster
{
    public override double DistanceTo(Cluster cluster)
    {
        if (cluster is Single single)
            return Math.Abs(Value ‐ single.Value);
        var couple = cluster as Couple;
        var left = DistanceTo(couple.Left);
        var right = DistanceTo(couple.Right);
        return left < right ? left : right;
    }
}
i j
x ∈ck i
min
x ∈cl j
min k l
40
1b. クラスタからクラスタへの距離
D(c , c ) = d(x ,x )
class Couple: Cluster
{
    public override double DistanceTo(Cluster cluster)
    {
        var left = Left.DistanceTo(cluster);
        var right = Right.DistanceTo(cluster);
        return left < right ? left : right;
    }
}
i j
x ∈ck i
min
x ∈cl j
min k l
41
2a. 最も近いクラスタ同士を結合していく
最も近いクラスタを結合していき、 1 つになったら終了。
while (clusters.Count != 1)
{
    var (c1, c2) = NearestPair(clusters);
    clusters.Add(new Couple(c1, c2));
    clusters.Remove(c1);
    clusters.Remove(c2);
}
42
2b. 最も近いクラスタのペアを見つける
public (Cluster, Cluster) NearestPair(List<Cluster> clusters)
{
    var min = double.MaxValue;
    Cluster c1 = null, c2 = null;
    for (var i = 0; i < clusters.Count; i++)
    {
        for (var j = i + 1; j < clusters.Count; j++)
        {
            var d = clusters[i].DistanceTo(clusters[j]);
            if (d < min)
            {
                min = d;
                (c1, c2) = (clusters[i], clusters[j]);
            }
        }
    }
    return (c1, c2);
}
43
実装例
GitHub に置いておきます﴾C#﴿。
下の AhcDemo 以下。
https://github.com/y‐takashina/SemiImpl
44
コードレビュー
45

More Related Content

What's hot

グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門ryosuke-kojima
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列Kenjiro Sugimoto
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?Masanao Ochi
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定Akira Masuda
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Yoshitaka Ushiku
 
最適化超入門
最適化超入門最適化超入門
最適化超入門Takami Sato
 
勾配降下法の 最適化アルゴリズム
勾配降下法の最適化アルゴリズム勾配降下法の最適化アルゴリズム
勾配降下法の 最適化アルゴリズムnishio
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章Hakky St
 
ConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティスConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティスYusuke Uchida
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理Taiji Suzuki
 
4 データ間の距離と類似度
4 データ間の距離と類似度4 データ間の距離と類似度
4 データ間の距離と類似度Seiichi Uchida
 
畳み込みLstm
畳み込みLstm畳み込みLstm
畳み込みLstmtak9029
 
K meansによるクラスタリングの解説と具体的なクラスタリングの活用方法の紹介
K meansによるクラスタリングの解説と具体的なクラスタリングの活用方法の紹介K meansによるクラスタリングの解説と具体的なクラスタリングの活用方法の紹介
K meansによるクラスタリングの解説と具体的なクラスタリングの活用方法の紹介Takeshi Mikami
 
Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由tancoro
 
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半Ohsawa Goodfellow
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII
 
深層学習の非常に簡単な説明
深層学習の非常に簡単な説明深層学習の非常に簡単な説明
深層学習の非常に簡単な説明Seiichi Uchida
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2matsuolab
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説tancoro
 

What's hot (20)

グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
最適化超入門
最適化超入門最適化超入門
最適化超入門
 
勾配降下法の 最適化アルゴリズム
勾配降下法の最適化アルゴリズム勾配降下法の最適化アルゴリズム
勾配降下法の 最適化アルゴリズム
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
 
ConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティスConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティス
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
4 データ間の距離と類似度
4 データ間の距離と類似度4 データ間の距離と類似度
4 データ間の距離と類似度
 
畳み込みLstm
畳み込みLstm畳み込みLstm
畳み込みLstm
 
K meansによるクラスタリングの解説と具体的なクラスタリングの活用方法の紹介
K meansによるクラスタリングの解説と具体的なクラスタリングの活用方法の紹介K meansによるクラスタリングの解説と具体的なクラスタリングの活用方法の紹介
K meansによるクラスタリングの解説と具体的なクラスタリングの活用方法の紹介
 
Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由
 
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
 
深層学習の非常に簡単な説明
深層学習の非常に簡単な説明深層学習の非常に簡単な説明
深層学習の非常に簡単な説明
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
 

Similar to 線形回帰と階層的クラスタリングの実装

東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 Clustering東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 ClusteringHiroshi Ono
 
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqパターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqsleipnir002
 
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)Nguyen Tuan
 
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1hirokazutanaka
 
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011Preferred Networks
 
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」moterech
 
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析hnisiji
 
130323 slide all
130323 slide all130323 slide all
130323 slide allikea0064
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1hirokazutanaka
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1hirokazutanaka
 

Similar to 線形回帰と階層的クラスタリングの実装 (13)

東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 Clustering東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 Clustering
 
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqパターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvq
 
6 Info Theory
6 Info Theory6 Info Theory
6 Info Theory
 
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
 
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
 
大規模凸最適化問題に対する勾配法
大規模凸最適化問題に対する勾配法大規模凸最適化問題に対する勾配法
大規模凸最適化問題に対する勾配法
 
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
 
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
 
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
 
130323 slide all
130323 slide all130323 slide all
130323 slide all
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
 

More from Yuya Takashina

Model building in mathematical programming #2-3 輪読資料
Model building in mathematical programming #2-3 輪読資料Model building in mathematical programming #2-3 輪読資料
Model building in mathematical programming #2-3 輪読資料Yuya Takashina
 
Iterative Decomposition Guided Variable Neighborhood Search for Graphical Mod...
Iterative Decomposition Guided Variable Neighborhood Search for Graphical Mod...Iterative Decomposition Guided Variable Neighborhood Search for Graphical Mod...
Iterative Decomposition Guided Variable Neighborhood Search for Graphical Mod...Yuya Takashina
 
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定Yuya Takashina
 
ネットワーク科学の応用について
ネットワーク科学の応用についてネットワーク科学の応用について
ネットワーク科学の応用についてYuya Takashina
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知Yuya Takashina
 
Short introduction to ML frameworks on Hadoop
Short introduction to ML frameworks on HadoopShort introduction to ML frameworks on Hadoop
Short introduction to ML frameworks on HadoopYuya Takashina
 
数式を(ちょっとしか)使わずに隠れマルコフモデル
数式を(ちょっとしか)使わずに隠れマルコフモデル数式を(ちょっとしか)使わずに隠れマルコフモデル
数式を(ちょっとしか)使わずに隠れマルコフモデルYuya Takashina
 

More from Yuya Takashina (7)

Model building in mathematical programming #2-3 輪読資料
Model building in mathematical programming #2-3 輪読資料Model building in mathematical programming #2-3 輪読資料
Model building in mathematical programming #2-3 輪読資料
 
Iterative Decomposition Guided Variable Neighborhood Search for Graphical Mod...
Iterative Decomposition Guided Variable Neighborhood Search for Graphical Mod...Iterative Decomposition Guided Variable Neighborhood Search for Graphical Mod...
Iterative Decomposition Guided Variable Neighborhood Search for Graphical Mod...
 
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
 
ネットワーク科学の応用について
ネットワーク科学の応用についてネットワーク科学の応用について
ネットワーク科学の応用について
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
Short introduction to ML frameworks on Hadoop
Short introduction to ML frameworks on HadoopShort introduction to ML frameworks on Hadoop
Short introduction to ML frameworks on Hadoop
 
数式を(ちょっとしか)使わずに隠れマルコフモデル
数式を(ちょっとしか)使わずに隠れマルコフモデル数式を(ちょっとしか)使わずに隠れマルコフモデル
数式を(ちょっとしか)使わずに隠れマルコフモデル
 

線形回帰と階層的クラスタリングの実装