SlideShare a Scribd company logo
1 of 53
Download to read offline
ICML’18 のNLP関連の論文
&
Adversarial Attackに関する論文
Motoki Sato
2018/07/28 ICML2018読み会
Preferred Networks
名前 佐藤 元紀 (さとう もとき)
所属 NAIST (松本研) → PFN
分野 NLP / Speech
Twitter @aonotas
自己紹介
2
今回の発表 ICMLにおけるNLP関連の話&Adversarial Attack
論文発表
@IJCAI’18
NLPにおける敵対的摂動の解釈性に関する論文:
Interpretable Adversarial Perturbation in Input Embedding
Space for Text, IJCAI‘18
ICMLにおけるNLP
3
NLP & Speech セッションが2回
NLPの抱える問題点(一部)
 Vocabが大きすぎ問題
1. 出力層のサイズが大きくなる
Softmax層の計算コストが高い
2. 入力層の単語ベクトルが多くなる
モデルを保存するときに 10万 * 512 dim
 離散的 vs 連続的
– Symbolicなものを扱う (NLP)
– 連続的なものを扱う (Neural Network)
– 離散的 ⇔ 連続的 の変換に単語ベクトルで変換する
4
NLPの抱える問題点(一部)
 Vocabが大きすぎ問題
1. 出力層のサイズが大きくなる
Softmax層の計算コストが高い
2. 入力層の単語ベクトルが多くなる
モデルを保存するときに 10万 * 512 dim
 離散的 vs 連続的
– Symbolicなものを扱う (NLP)
– 連続的なものを扱う (Neural Network)
– 離散的 ⇔ 連続的 の変換に単語ベクトルで変換する
5
[Chen, ICML 2018]
[Blanc, ICML 2018]
[Weiss, ICML 2018]
出力層のサイズが大きくなる問題
 Adaptive Sampled Softmax with Kernel Based Sampling
 既存手法では, Softmax層からサンプリングする手法があるが
biasが掛かってしまう問題点があった
 提案手法ではサンプリング時のバイアスを減らした
6
[Blanc, ICML 2018]
先行研究 “Adaptive Softmax” : Efficient softmax approximation for
GPUs のChainer実装 : https://github.com/soskek/efficient_softmax
入力層の単語ベクトルが多くなる問題
 Learning K-way D-dimensional Discrete Codes for Compact
Embedding Representations
7
[Chen, ICML 2018]
先行研究 [Shu & Nakayama, ICLR 2017] : Compressing word
embeddings via deep compositional code learning の Chainer実装 :
https://github.com/chainer/models/tree/master/nncompress
単語ベクトルをOne-hotではなく,
K個のcodeに変換し,
DNNにcodeを入力して単語ベクト
ルを予測させる
モデル保存の時にサイズを減らす
ことができる
連続的 ⇔ 離散的
 Extracting Automata from Recurrent Neural Networks
Using Queries and Counterexamples
8
[Weiss, ICML 2018]
 訓練済みのRNNから有限オートマトンを抽出する研究
Towards Binary-Valued Gates for Robust LSTM Training
 LSTMのForget-Gateの値を 0, 1に制限する
 Gumbel-softmaxでEnd-to-Endで学習する
9
 提案法では文の区切れでforgetsするように学習されている
LSTMのGateをいじる系の研究は色々あるが, 実用的にはNVIDIAのcuDNN-LSTM
が高速すぎるので, NVIDIAにSupportされないと厳しいという…
Chainerの場合は L.NStepLSTMが高速です (BiLSTMもあります)
Adversarial Attacks
Adversarial Attacks
1. Obfuscated gradients give a false sense of security:
circumventing defenses to adversarial examples [Best Paper]
Anish Athalye, Nicholas Carlini, David Wagner
2. Synthesizing Robust Adversarial Examples
Anish Athalye*, Logan Engstrom*, Andrew Ilyas*, Kevin Kwok
3. Black-box Adversarial Attacks with Limited Queries and
Information
Andrew Ilyas*, Logan Engstrom*, Anish Athalye*, Jessy Lin*
11
同じグループ (MIT/UC Berkeley)でAdversarial 系で3本 ICMLに通している
…!
そのうち1本はBest Paper.
1. Obfuscated gradients give a false sense of security
12
Adversarial Exampleとは?
出力を変えるような勾配を求めて 入力xを更新していく
1. Obfuscated gradients give a false sense of security
13
Adversarial Exampleとは?
(余談) Adversarial Exampleといえばパンダのイメージが強いが,
ICMLの発表では猫 (tabby cat) の例が多いなぁ…
1. Obfuscated gradients give a false sense of security
14
ICLR 2018のdefenseに関する論文9本のうち7本に関して攻撃できたよ
Obfuscated gradientsという現象を使ってdefenseしている手法は攻撃されちゃう
よ
概要
1. Shattered gradients
微分不可能なオペレーションで勾配を計算不可にしている
2. Stochastic gradients
予測時にランダム性を入れている
3. Vanishing/exploding gradients
勾配が消失している
Obfuscated gradients
1. Obfuscated gradients give a false sense of security
15
Backward Pass Differentiable Approximation (BPDA)
勾配が計算できないレイヤーを勾配 ≒ 1 となる別の関数で置き換える
g(x) ≈ x ∇g(x) ≈ ∇x = 1
1. Obfuscated gradients give a false sense of security
16
Expectation Over Transformation (EOT)
入力にランダムな変換を加えて予測させている場合, いくつか入力を
試して期待値を計算し, 勾配を近似する.
1. Obfuscated gradients give a false sense of security
17
実験
著者ポスター:
https://www.anishathalye.com/media/2018/07/19/poster.pdf
2. Synthesizing Robust Adversarial Examples
18
3DのオブジェクトでAdversarial Exampleを作る.
レンダリング時にあらゆる角度から見た時に出力を間違えるように学習する.
3. Black-box Adversarial Attacks with Limited Queries and Information
19
Adversarial Attackを現実的な設定で解いた. (Black-box + limited Query &
Information)
概要
 White-box Attack
攻撃者がモデル全体の構造・パラメータを知っている
 Black-box Attack
攻撃者はモデルの出力のみを知っている(モデルが手元に無い)
(例) Google APIを攻撃する
Black-boxを対象とし,
1. Query-limited setting (APIの使用制限)
2. Partial-information setting (出力の一部 + スコア)
3. Label-only setting (出力のラベルのみ) を定義した
Google Vison API
20入力 出力
Adversarial Attackの分類
White-box Black-box
モデルの構造 ○ ☓
モデルのパラメータ
(勾配)
○ ☓
出力 (全クラスのスコア) ○ ○
Query-limited
Partial-
information
Label-only
settin
API試行回数の制限 ○ ☓ ☓
全クラス / 一部 全クラス K ≧1 K ≧2
出力のスコア ○ ○ ☓
untarget target
Target
目標クラス無し
出力クラスを変えられたらOK
目標クラスあり
犬の画像をpandaと予測させる
Motivation / Method
22
1. Query-limited setting (APIの使用制限)
2. Partial-information setting (出力の一部 + スコア)
3. Label-only setting (出力のラベルのみ)
I. Natural Evolutionary Strategies (NES) [Wierstra et al. (2014)]
を用いて勾配を推定する.
II. 推定した勾配からAdversarial Exampleを生成する
(設定ごとに少し工夫を加える)
手法
設定
勾配の推定 [Wierstra et al. (2014)]
(Natural Evolutionary Strategies; NES)
23
推定したい勾配
Search distribution of random Gaussian noise around the current image x
近似した勾配 期待値で近似
1. Query-limited Setting
24
推定した勾配からAdversarial Exampleを作る(iterative)
 入力xに対してガウシアンノイズを加える.
 ノイズの加える方向を 逆の方向にも加える
Antithetic sampling [Salimans et al.
(2017)]
近似した勾配
効率の良い推定方法
→API試行回数を少なくする
2. Partial-information Setting
25
 入力xに対してガウシアンノイズを加える.
 ノイズの加える方向を 逆の方向にも加える
Antithetic sampling [Salimans et al.
(2017)]
2. Partial-information Setting
26
 目標クラスyadvの画像xからスタートして, 入力xを修正していく
 Top-Kの中に含まれるかどうかで探索の方向を決める
3. Label-only setting
27
 現在の入力 x に対して離散的なスコアを定義する.
 Classifierのスコアの代わりに, ∇xS (x) の勾配を推定する
(4 – 2) (4 – 1) (4 – 4)
実験 (Image Net)
28
 QL : Quary-limited Setting : 平均 1万クエリで攻撃が成功する(多
い?)
 スコアを隠すと(やはり)必要なクエリ数が増加している
 Image NetのTest Setからランダムに1000件
 任意のTarget classに誤分類させる
設定:
Input Image
29
Adversarial Example
30
論文一覧
 NLP関連の論文
– Towards Binary-Valued Gates for Robust LSTM Training
– Learning K-way D-dimensional Discrete Codes for Compact Embedding
Representations
– Extracting Automata from Recurrent Neural Networks Using Queries and
Counterexamples
– Adaptive Sampled Softmax with Kernel Based Sampling
 Adversarial Attack
31
1. Obfuscated gradients give a false sense of security:
circumventing defenses to adversarial examples [Best Paper]
2. Synthesizing Robust Adversarial Examples
3. Black-box Adversarial Attacks with Limited Queries and
Information
32
Interpretable Adversarial
Perturbation in Input Embedding
Space for Text
佐藤 元紀1, 鈴木 潤2, 進藤 裕之1,3, 松本 裕治1,3
1 : 奈良先端科学技術大学院大学 (NAIST) 松本研究室
2 : NTTコミュニケーション科学基礎研究所
3 : 理化学研究所 革新知能統合研究センターAIP
IJCAI’18
敵対的摂動
 画像に摂動(ノイズ)を加えると分類器が間違えることが知られ
ている[Szegedy et al., 2014, Goodfellow et al .,2015]
34 [Szegedy et al., 2014] : “Intriguing properties of neural networks.”, ICLR 2014.
 [Goodfellow et al.,2015]:“Explaining and Harnessing Adversarial Examples”, ICLR 2015.
[Goodfellow et al., 2015]から引用
入力画像
敵対的摂動
(Adversarial
Perturbation)
敵対的サンプル
(Adversarial
Example)
敵対的摂動
 画像に摂動(ノイズ)を加えると分類器が間違えることが知られ
ている[Szegedy et al., 2014, Goodfellow et al .,2015]
35
[Goodfellow et al., 2015]から引用
入力画像
敵対的摂動
(Adversarial
Perturbation)
敵対的サンプル
(Adversarial
Example)
目的関数の誤差が増大する勾配から求める
画像処理 と 自然言語処理
 画像処理
– 入力は連続的 (RGB値 0〜255)
– 画像 + 摂動ベクトル → 画像 として解釈可能
36
 自然言語処理
– 入力は離散的 (単語)
– 離散シンボル⇔単語ベクトルを変換するLookup Tableを用いる
– 単語ベクトル + 摂動ベクトル → ? ? ?
(どの単語を表しているか解釈できない)
(例)
本研究の概要
37
既存手法 提案手法
単語ベクトル
摂動ベクトル
単語ベクトル
単語方向ベクトル
摂動ベクトルが
単語が存在する点を
向いていない
摂動ベクトルが
単語が存在する点を
向いている
提案手法のメリット
1. 摂動を可視化し人間に解釈可能になる
(どのような単語の置き換えなのか)
2. 敵対的サンプルを勾配から生成することができる
関連研究
 出力を変える入力文の作成
– クラウドソーシングで読解システムを騙す入力文を作成する
[Jia and Liang, 2017]
– ランダムな文字のスワップを考えてNMTを騙す入力文を探索する
[Belinkov and Bisk, 2018]
– 同義語を置き換え大量の入力文を生成し,分類器を騙す出力文を探索する
[Samanta and Mehta, 2017]
 モデルの挙動を知ることで解釈性が上がる.
38
敵対的サンプル(Adversarial Example) for NLP
関連研究
 敵対的サンプルを学習に加えて汎化性能を上げる[Goodfellow et al .,2015]
39
敵対的学習(Adversarial Training)
目的関数 敵対的サンプルを正しく分類する目的関数
 半教師あり学習に敵対的学習を拡張 (Virtual Adversarial Training; VAT)
[Miyato et al., 2016]
 単語ベクトルに摂動を加え,敵対的学習を行う [Miyato et al., 2017]
– テキスト分類において最高精度だが, 摂動に関する解釈性は議論していない
Adversarial Training for Text
既存手法: [Miyato et al., 2017] について詳しく述べる
既存手法 : [Miyato et al., 2017]
 Takeru Miyato, Andrew M Dai, and Ian Goodfellow, ICLR 2017
“Adversarial training methods for semi-supervised text classification.”
 単層LSTM + Pre-Training (Language Model) + Adversarial Training
40
単語ベクトル:敵対的摂動ベクトル:
:ハイパーパラメータ (例:
1.0)
既存手法 : [Miyato et al., 2017]
41
単語ベクトル:敵対的摂動ベクトル:
敵対的学習
:単語ベクトルに摂動を加えた入力
摂動の定義
:損失関数 を増大させる を求め
る
摂動の求め方
:勾配を求め, L2正規化
:目的関数に追加
:摂動を加えた入力を
正しく分類する目的関数
既存手法 : [Miyato et al., 2017]
 Takeru Miyato, Andrew M Dai, and Ian Goodfellow, ICLR 2017
“Adversarial training methods for semi-supervised text classification.”
 単層LSTM + Pre-Training (Language Model) + Adversarial Training
42
単語ベクトル:敵対的摂動ベクトル:
提案手法
43
既存手法: 提案手法:
単語ベクトル
摂動ベクトル
単語ベクトル
単語方向ベクトル
摂動ベクトルが
単語が存在する点を
向いていない
摂動ベクトルが
単語が存在する点を
向いている
単語方向ベクトル を考慮し, 勾配から摂動を求める
提案手法
44
摂動の定義 単語ベクトル:
摂動の求め方
:単語の方向ベクトル
:重みスコアαとの総和を摂動とする
:単語ベクトルに摂動を加えた入力
:損失関数 を増大させる
aを求める
:勾配からαを求める
:重みαと単語方向ベクトルdから
摂動を求める
提案手法
45
既存手法: 提案手法:
単語ベクトル
摂動ベクトル
単語ベクトル
単語方向ベクトル
• 可視化 :最大のa 以外は0にフィルターすることで
唯一の方向を向くようになる
• 敵対的学習:上記の式を使う.
実験
 敵対的学習の実験 (汎化性能が上がるかを調べる)
– 比較手法 : [Miyato et al., 2017]
– データセット: IMDB (極性分類タスク)
(Train : 21,246 Dev: 3,754 Test: 25,000 Unlabeled: 50,000)
46
単語ベクトル:敵対的摂動ベクトル:
実験結果
47
• 既存手法と同等 or 少し良い性能を得ることができた.
• ランダムな摂動ベクトルよりも高い性能を得ることができた
(Semi-supervised : ✝ )
48
左軸: 入力文 (テストデータ)
Positiveな文
右軸:摂動の方向に存在する単語
(単語の置き換え)
分類器の予測が
Positive → Negativeとなる摂動
を求める.
摂動の方向と大きさを可視化した.
方向 :どの単語が存在するか
大きさ:摂動のL2ノルム
※摂動の重みは最大値を用いた
“better” → “worse”
と単語ベクトルに摂動を加えると
Positive → Negativeとなりや
すいことが可視化で分かる
周辺単語テスト文
49
左軸: 入力文 (テストデータ)
Negative な文
右軸:摂動の方向に存在する単語
(単語の置き換え)
分類器の予測が
Negative → Positiveとなる摂動
を求める.
摂動の方向と大きさを可視化した.
方向 :どの単語が存在するか
大きさ:摂動のL2ノルム
※摂動の重みは最大値を用いた
“bad”→ “good”と単語ベクトルに
摂動を加えると
Negative→Positiveとなりやすい
ことが可視化で分かる
周辺単語テスト文
予測を変化させる入力文の作成
 摂動のノルムが大きい単語を置き換えて,
分類器の予測結果が変わるか確かめる.
50
This movie turned out to be better than I had expected it to be
Some parts were pretty funny It was nice to have a movie with a
new plot <eos>
テストデータ文 予測結果: Positive
This movie turned out to be worse than I had expected it to be
Some parts were pretty funny It was nice to have a movie with a
new plot <eos>
敵対的サンプル 予測結果: Negative
“better” → “worse”と置き換えると予測結果が反転した
(文の意味も変化している)
予測を変化させる入力文の作成
51
テストデータ文
予測結果: Positive敵対的サンプル
予測結果: Negative
There is really but one thing to say about this sorry movie It should never
have been made The first one one of my favourites An American Werewolf
in London is a great movie with a good plot good actors and good FX But
this one It stinks to heaven with a cry of helplessness <eos>
There is really but one thing to say about that sorry movie It should never
have been made The first one one of my favourites An American Werewolf
in London is a great movie with a good plot good actors and good FX But
this one It stinks to heaven with a cry of helplessness <eos>
“this” → “that”と置き換えると予測結果が反転した
(文の意味は変化していない)
予測を変化させる入力文の作成
52
“this” → “that”と置き換えると予測結果が反転した
(文の意味は変化していない)
“better” → “worse”と置き換えると予測結果が反転した
(文の意味も変化している)
このような入力を人手や辞書のコストを掛けず,
勾配情報から求めることができるのが利点
まとめ
 単語ベクトルに対して摂動を加える際に
単語が存在する方向に制約を加える手法を提案した.
 既存の手法に比べ,同等程度の性能を得た
 可視化することでモデルの解釈性が上がった
 敵対的な入力文を勾配から求めることを示した.
53

More Related Content

What's hot

Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Kota Matsui
 
Statistical Semantic入門 ~分布仮説からword2vecまで~
Statistical Semantic入門 ~分布仮説からword2vecまで~Statistical Semantic入門 ~分布仮説からword2vecまで~
Statistical Semantic入門 ~分布仮説からword2vecまで~Yuya Unno
 
(修正)機械学習デザインパターン(ML Design Patterns)の解説
(修正)機械学習デザインパターン(ML Design Patterns)の解説(修正)機械学習デザインパターン(ML Design Patterns)の解説
(修正)機械学習デザインパターン(ML Design Patterns)の解説Hironori Washizaki
 
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用SSII
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language ModelsDeep Learning JP
 
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたいTakuji Tahara
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用Yoshitaka Ushiku
 
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~SSII
 
adversarial training.pptx
adversarial training.pptxadversarial training.pptx
adversarial training.pptxssuserc45ddf
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Modelscvpaper. challenge
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised LearningまとめDeep Learning JP
 
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Keigo Nishida
 
[DL輪読会]Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Ima...
[DL輪読会]Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Ima...[DL輪読会]Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Ima...
[DL輪読会]Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Ima...Deep Learning JP
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
優れた研究論文の書き方―7つの提案
優れた研究論文の書き方―7つの提案優れた研究論文の書き方―7つの提案
優れた研究論文の書き方―7つの提案Masanori Kado
 
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII
 
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜諒介 荒木
 
大規模言語モデルとChatGPT
大規模言語モデルとChatGPT大規模言語モデルとChatGPT
大規模言語モデルとChatGPTnlab_utokyo
 
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object DetectionDeep Learning JP
 

What's hot (20)

Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
 
Statistical Semantic入門 ~分布仮説からword2vecまで~
Statistical Semantic入門 ~分布仮説からword2vecまで~Statistical Semantic入門 ~分布仮説からword2vecまで~
Statistical Semantic入門 ~分布仮説からword2vecまで~
 
(修正)機械学習デザインパターン(ML Design Patterns)の解説
(修正)機械学習デザインパターン(ML Design Patterns)の解説(修正)機械学習デザインパターン(ML Design Patterns)の解説
(修正)機械学習デザインパターン(ML Design Patterns)の解説
 
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models
 
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
 
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
 
adversarial training.pptx
adversarial training.pptxadversarial training.pptx
adversarial training.pptx
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
 
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
 
[DL輪読会]Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Ima...
[DL輪読会]Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Ima...[DL輪読会]Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Ima...
[DL輪読会]Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Ima...
 
深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
優れた研究論文の書き方―7つの提案
優れた研究論文の書き方―7つの提案優れた研究論文の書き方―7つの提案
優れた研究論文の書き方―7つの提案
 
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
 
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
 
大規模言語モデルとChatGPT
大規模言語モデルとChatGPT大規模言語モデルとChatGPT
大規模言語モデルとChatGPT
 
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection
 

Similar to ICML2018読み会: Overview of NLP / Adversarial Attacks

全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開Seiya Tokui
 
20210531 ora jam_stackgan
20210531 ora jam_stackgan20210531 ora jam_stackgan
20210531 ora jam_stackganKenichi Sonoda
 
強化学習の実適用に向けた課題と工夫
強化学習の実適用に向けた課題と工夫強化学習の実適用に向けた課題と工夫
強化学習の実適用に向けた課題と工夫Masahiro Yasumoto
 
Embedding Watermarks into Deep Neural Networks
Embedding Watermarks into Deep Neural NetworksEmbedding Watermarks into Deep Neural Networks
Embedding Watermarks into Deep Neural NetworksYusuke Uchida
 
Infer.netによるldaの実装
Infer.netによるldaの実装Infer.netによるldaの実装
Infer.netによるldaの実装池田 直哉
 
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイDeep Learning JP
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
20171015 mosa machine learning
20171015 mosa machine learning20171015 mosa machine learning
20171015 mosa machine learningMuneyoshi Benzaki
 
はてなインターン「機械学習」
はてなインターン「機械学習」はてなインターン「機械学習」
はてなインターン「機械学習」Hatena::Engineering
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用Seiya Tokui
 
PoisoningAttackSVM (ICMLreading2012)
PoisoningAttackSVM (ICMLreading2012)PoisoningAttackSVM (ICMLreading2012)
PoisoningAttackSVM (ICMLreading2012)Hidekazu Oiwa
 
Knowledge_graph_alignment_with_entity-pair_embedding
Knowledge_graph_alignment_with_entity-pair_embeddingKnowledge_graph_alignment_with_entity-pair_embedding
Knowledge_graph_alignment_with_entity-pair_embeddingAce12358
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】Naoki Hayashi
 
深層学習とTensorFlow入門
深層学習とTensorFlow入門深層学習とTensorFlow入門
深層学習とTensorFlow入門tak9029
 
ディープラーニング入門 ~ 画像処理・自然言語処理について ~
ディープラーニング入門 ~ 画像処理・自然言語処理について ~ディープラーニング入門 ~ 画像処理・自然言語処理について ~
ディープラーニング入門 ~ 画像処理・自然言語処理について ~Kensuke Otsuki
 

Similar to ICML2018読み会: Overview of NLP / Adversarial Attacks (20)

全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
 
Jokyokai
JokyokaiJokyokai
Jokyokai
 
20210531 ora jam_stackgan
20210531 ora jam_stackgan20210531 ora jam_stackgan
20210531 ora jam_stackgan
 
Pfi last seminar
Pfi last seminarPfi last seminar
Pfi last seminar
 
強化学習の実適用に向けた課題と工夫
強化学習の実適用に向けた課題と工夫強化学習の実適用に向けた課題と工夫
強化学習の実適用に向けた課題と工夫
 
Embedding Watermarks into Deep Neural Networks
Embedding Watermarks into Deep Neural NetworksEmbedding Watermarks into Deep Neural Networks
Embedding Watermarks into Deep Neural Networks
 
Infer.netによるldaの実装
Infer.netによるldaの実装Infer.netによるldaの実装
Infer.netによるldaの実装
 
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
Paper: seq2seq 20190320
Paper: seq2seq 20190320Paper: seq2seq 20190320
Paper: seq2seq 20190320
 
20171015 mosa machine learning
20171015 mosa machine learning20171015 mosa machine learning
20171015 mosa machine learning
 
Deep learning入門
Deep learning入門Deep learning入門
Deep learning入門
 
はてなインターン「機械学習」
はてなインターン「機械学習」はてなインターン「機械学習」
はてなインターン「機械学習」
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用
 
PoisoningAttackSVM (ICMLreading2012)
PoisoningAttackSVM (ICMLreading2012)PoisoningAttackSVM (ICMLreading2012)
PoisoningAttackSVM (ICMLreading2012)
 
Knowledge_graph_alignment_with_entity-pair_embedding
Knowledge_graph_alignment_with_entity-pair_embeddingKnowledge_graph_alignment_with_entity-pair_embedding
Knowledge_graph_alignment_with_entity-pair_embedding
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
 
深層学習とTensorFlow入門
深層学習とTensorFlow入門深層学習とTensorFlow入門
深層学習とTensorFlow入門
 
ディープラーニング入門 ~ 画像処理・自然言語処理について ~
ディープラーニング入門 ~ 画像処理・自然言語処理について ~ディープラーニング入門 ~ 画像処理・自然言語処理について ~
ディープラーニング入門 ~ 画像処理・自然言語処理について ~
 

ICML2018読み会: Overview of NLP / Adversarial Attacks

Editor's Notes

  1. 15分
  2. 15分