SlideShare a Scribd company logo
1 of 149
Download to read offline
Thread: Circuits
What can we learn if we invest heavily
in reverse engineering a single neural network?
Takanori Ogata
Thread: Circuits
• DLで構成されたニューロンは特徴を徐々に抽象化して意味のあ
る特徴を構築(この⾒解には懐疑的な意⾒も多いが)
• => このニューロンと回路(Circuits)の接続関係をより実験的に
調査することで、視認に関する意味理解を深めることはできな
いか?というスレッド(記事?)
• *まだ連載中で完結していない(現在4本の記事が投稿されて
おり、おそらく7-8本ほどで完結?)
https://distill.pub/2020/circuits/
今回調査した記事
• Zoom In: An Introduction to Circuits
• An Overview of Early Vision in InceptionV1
• Curve Detectors
• Naturally Occurring Equivariance in Neural Networks
Zoom In: An Introduction to Circuits
Zoom In: An Introduction to Circuits
概要
• ニューロンとその接続性を研究することで、NNの重みに意味
のあることができるのではないか、という研究(記事?)
• ニューロンとその接続(Circurits)に対して、3つの推測的な主
張を⽴ててその妥当性を説明しようとしている
• (Circuits Threadの全体像や触りの部分の説明)
Zoomed in
• 科学の歴史における重要な移⾏点は、科学が「ズームイン」し
た瞬間に起きることが多い
• 新しいレベルで詳細に⾒ることができる可視化⼿法やツールを
開発し、そのレンズを通じて世界を研究するための新しい分野
が開発されている
• 顕微鏡 -> 細胞⽣物学
• X線結晶学 -> DNAの観察による分⼦⾰命
• 原⼦理論、亜原⼦粒⼦、神経科学など
Zoomed in
• NNに関しても、可視化とZoom inによって新しい分野を拓くこ
とができるのではないか?
• 解釈可能性に関するほとんどの研究は、NN全体の動作を簡単
に説明することを⽬的としている
• -> 神経科学や細胞⽣物学に触発されたアプローチ、つまりズームイン
するアプローチをとるとしたら?
• 個々のニューロンや重みをトレース
調査するとどうなるか?
• この⼊⾨エッセイでは考え⽅の概要と
これらの研究動作原理をこの記事で説明
Andrej+, ICLR2016
Three Speculative Claims
• 例)現代の細胞説のもととなった、 1839年 によって提唱された
Schwannの3つの主張
• Claim 1
• 細胞は、⽣物の構造、⽣理学、組織の単位
• Claim 2
• 細胞は、⽣物の構築において、別個の実体および構成要素としての⼆重の存
在を保持
• Claim 3
• 細胞は、結晶の形成と同様に、⾃由細胞の形成によって形成
• (間違っていることが判明しているらしい)
これを参考にNNに当てはめるとどうなるのか?
Three Speculative Claims about Neural Networks
• Claim 1: Features(特徴)
• NNの基本単位、⽅向( 特定の層のニューロンの活性化のベクトル空間にお
ける⽅向ベクトル )に対応し、厳密に調査でき理解が可能
• Claim 2: Circuits(回路)
• Featuresは重みによって形成され、Circuitsを形成される
• これらのCircuitsも厳密に調査でき理解が可能
• Claim 3: Universality(普遍性)
• 類似の機能と回路は、モデルとタスク全体で形成される
• 1と3に沿った主張は以前に提案されており、完全に新しいものでは
ないが、これらが証明されれば 解釈可能性の新しい「Zoom in」分
野の基礎を形成する可能性がある
Claim 1: Features
• NNは、意味のある、理解しやすい機能で構成されている(と
いう仮説)
• 初期のレイヤーにはエッジ・カーブ検出器のような機能が含まれ、後
段には⽿やホイールの検出器などの機能が含まれている
• ただしコミュニティでは⾮常に議論が割れている
• ⼊⾨エッセイでは、説明に役⽴つと思われるいくつかの例の概
要のみを説明
• InceptionV1から例を取り上げて解説
• 今の所⼀般的に当てはまると考えているが、普遍性に関しては最後の
セクションで説明
Example 1: Curve Detectors
• 曲線検出ニューロンはすべての重要な資格モデルに⾒られ、コ
ミュニティが広く同意している機能(エッジ検出器など)と、
かなりの懐疑論がある機能(⽿、⾃動⾞、顔などの⾼レベルの
機能)の間の境界にまたがっている
• InceptionV1のmixed3bの曲線検出器に焦点を当てると
• 半径約60pxの曲線と境界に反応
• 曲線の境界に沿った垂直線によってわずかにさらに励起
• 曲線の両側が異なる⾊であるとよく反応する
Example 1: Curve Detectors
• カーブを使⽤したサブコンポーネントを検出するユニットも多
数ある(円、スパイラル、Sカーブ、砂時計の形状、3D曲率な
ど)
• 線や鋭い⾓などの曲線関連の形状に対応するユニットもあり、
これらのユニットをカーブ検出器とは⾒なさない
Example 1: Curve Detectors
• これらの”曲線検出器”は本当に曲線に反応しているのか?
• *後の記事にて詳細な調査を⾏うが、根拠は⾮常に強⼒であると考え
ている
• 機能を理解するために、概説する7つの議論を⾏う
• 3つは視覚神経科学の古典的な⽅法、3つは回路に基づいている
Arguments
1. FEATURE VISUALIZATION
曲線検出器が発⽕するように⼊⼒を最適化
結果画像のすべてがニューロンを発⽕させるため、
因果関係を確⽴できる
2. DATASET EXAMPLES
曲線を含むImageNetの画像は、曲線検出器を構成する
ニューロンを強く発⽕させ、不完全な曲線または⽅向
が異なる曲線画像はゆるやかに発⽕する
3: SYNTHETIC EXAMPLES
曲線検出器は、さまざまな⽅向、曲率、および背景で作成さ
れた⼀連の合成曲線画像に予測通り応答する
予測⽅向の近くでのみ発⽕し、直線や鋭い⾓では強く発⽕し
ない
Arguments
4. JOINT TUNING
ニューロンを発⽕させる画像を回転させると、徐々に発⽕が
弱まり、次の⽅向(別の)ニューロンが発⽕を始める。これ
は⾓度別の同類な曲線検出器が存在することを⽰す
5. FEATURE IMPLEMENTATION
曲線検出器を構成する回路を⾒ると、重みから曲線検
出アルゴリズムを読み取ることができる
6. FEATURE USE
下層の曲線検出器の特徴を組み合わせて上層の曲線検
出器を構築している(円、3D曲率、スパイラルなど)
Arguments
7. HANDWRITTEN CIRCUITS
曲線検出器の実装理解に基づいて、すべての重みを⼿
動で設定することで任意の曲線検出器を実装する。
*これらの詳細は次回の記事(curve detectors)に記載
Example 2: High-Low Frequency Detectors
• 曲線検出器は機能が直感的
• ⾼低周波数検出器は直感的ではない機能の⼀つ
• 受容野の⽚側で低周波パターンを、反対側で⾼周波パターンを検出
• -> なぜこのような機能が構築されているのか?
• オブジェクトの境界を検出するための経験則の1つと推測
• (後の記事An Overview of Early Vision in InceptionV1で紹介)
Example 3: Pose-Invariant Dog Head Detector
• より⾼レベルの機能のユニットを考察(イッヌ)
• 特徴の視覚化とデータセットの例の組み合わせだけでも、すで
に⾮常に強⼒な説明⼒がある
• 3Dモデルを使⽤して、さまざまな⾓度から⽝の頭の合成画像を
⽣成することで調査可能
• => アプローチのいくつかは⾼レベルな機能調査に多⼤な労⼒が
必要だが、Circuits-Basedアプローチ(後述)だと簡単に適⽤
可能で居⼒なツールとして利⽤可能
Polysemantic Neurons
• すべてのニューロンは⼈間に理解可能か? -> No
• 多くの場合、複数の⼊⼒に応答する「多意味ニューロン」が含
まれている
• Ex) 猫の顔、⾞の前部、猫の脚に反応する1つのニューロンが存在
Polysemantic Neurons
• ⾞と猫の顔の共通点に応答しているわけではない
• 特徴を視覚化すると、猫の⽬とひげ、⽑⽪で覆われた脚、⾞の光沢を探して
いる様に⾒え、微妙な共有機能とは⾔えない
• Circuitsの解析である程度推測できるが、組み合わせ問題的に⼤変
• 多意味ニューロンを「展開」するか、そもそも多意味性を⽰さ
ないようにネットワークをトレーニングすることによって、多
意味ニューロンを解決できる可能性があるのでは?
Claim 2: Circuits
• ネットワーク内のすべてのニューロンは、前の層のニューロン
とそれに続くReLUの線形結合から形成
• 両⽅のレイヤーの機能を理解できれば、それらの間のつながりも理解
できるのでは?
• ネットワークの重み(Circutis・回路)を紐解けばアルゴリズムが
読み取ることが出来る
• 調査したところ、対称性や綺麗な構造を発⾒できた
Circuit 1: Curve Detectors
• 曲線検出器は、弱い曲線検出器と線検出器から実装されている
• 3Dジオメトリおよび複雑な形状の検出器を作成するために上位レイ
ヤーで利⽤
Circuit 1: Curve Detectors
• 弱い曲線検出器が洗練された曲線検出器になる例
• 5x5の畳み込みを実装
• 正または負の場合がある
• 重みをみることで、曲線検出器が以前の曲線検出器を使⽤して
「接線曲線」を探していることを意味すると考える事ができる
Circuit 1: Curve Detectors
• 同様の⽅向にある初期および完全曲線検出器のすべてのペアに
当てはまる
• 正の重みで励起・負の重みで抑制
Circuit 2: Oriented Dog Head Detection
• 曲線検出回路は低レベルの回路、2つの層にのみまたがっている
• 4つの層にまたがる⾼レベルの回路の例(⽝)を紹介
• ImageNetには100種類の⽝が存在 -> 専⽤ニューロンが多数存在
Circuit 2: Oriented Dog Head Detection
• 左向きと右向きの⽝の頭を処理するニューロンのコレクションが存在
• 3つのレイヤーにわたって、2つのミラー化された経路を維持
• 左右を向いている類似のユニットを検出
• 各ステップで、これらの経路は互いに抑制、コントラストを鮮明に
• 最後に、両⽅の経路に応答する不変ニューロンを作成
Circuit 2: Oriented Dog Head Detection
• このパターンを「ケースの結合」と呼ぶ
• ネットワークは2つのケース(左と右)を別々に検出し、それ
らを結合して不変の「多⾯的」を作成
• 2つの経路が互いに抑制し合うため、この回路には実際には
XORのような特性がある
Circuit 2: Oriented Dog Head Detection
• ニューロン間のすべての接続は畳み込みであるため、⼊⼒
ニューロンが次のニューロンを励起する場所を確認することで
きる
• 「頭と⾸」のユニットの例をみると、頭は正しい側でのみ検出
される
Circuit 2: Oriented Dog Head Detection
• ケースの結合の例
• 同時に頭部の2つの⽅向には応答せず、励起領域は、⽅向に応
じて中⼼から異なる⽅向に広がり、⿐が同じポイントに収束
Circuit 3: Cars in Superposition
• InceptionV1のmixed4cには⾞を検出するニューロンが存在
• 前レイヤーの機能(窓・⾞体・タイヤ)を組み合わせて⾞を検
出
Circuit 3: Cars in Superposition
• しかしながら、次の層では純粋な⾞の検出器を作成するのでは
なく、他のものを検出するような機能になっている様に⾒える
• ⾞検出の機能を⽝の検出器が活⽤?
Circuit 3: Cars in Superposition
• この回路は、多意味ニューロンが、ある意味で意図的であることを⽰唆
• ⾞や⽝を検出するプロセスが何らかの理由でモデルに深く絡み合っている?
• 結果、多意味ニューロンを回避することが困難になっている?
• => モデルに「純粋なニューロン」があり、それを他の機能と混ぜ合わせたとも⾔
える
• この現象を重ね合わせ(superposition)と呼ぶ
重ね合わせによりニューロンが節約され、より重要なタスクを説いている
のでは? という仮説
=> ⾞と⽝が共起しなければ、後段で⽝の特徴のみを捉えられる?
Circuit Motifs
• InceptionV1にも同じ抽象的なパターンが⾒られた
• 曲線検出にある同変(Equivarence)(回転不変、スケール不変など)
• ⽝の頭部検出に⾒られるケース結合(Unioning over cases)
• ⾞検出での重ね合わせ(superposition)
• 回路を理解するには、モチーフを研究することが重要になる可能性が⾼いと
考えている
Claim 3: Universality
• NNで⾃然画像を学習すると、初期層にガボールフィルターが
現れることは広く受け⼊れられている事実
• 他の層にもこういった意味のある共通機能が現れるか?(普遍性)
• 機能の普遍性(Universality)(または収束学習/convergent
learning )は様々なNNが相関性の⾼いニューロンを学習でき
ることが⽰されている[Li+ ICLR2016]
• 更に隠れ層で類似の表現を学習するという先⾏研究も
[Kornblith+, arXiv2019]
• ⽑⽪のテクスチャ検出器と⽝の体の検出器の2つの機能は、重要な異な
る機能であるにもかかわらず、⾼度に相関している
Claim 3: Universality
• 理想的には、いくつかの機能を特徴付け、それらの機能(相関
する機能だけでなく)が多くのモデルにわたって形成されてい
ることを厳密に⽰したい
• 次に、類似の回路が形成されることをさらに確⽴するために、
複数のモデルの複数の層にわたって類似の特徴を⾒つけ、各モ
デル間に同じ重み構造が形成されることを⽰したい
• -> 多⼤な時間を要するため⼗分に調査できておらず、まだ確か
な根拠は⽰せない
Claim 3: Universality
• しかしながら様々なモデル(AlexNet、InceptionV1、
InceptionV3、ResNet等)をImageNet及びPlace365で学習さ
せると同じような機能が形成されていることは確認でき、ゼロ
から学習させても同じような機能が形成されることは確認済
Claim 3: Universality
• これらの結果から普遍性の仮説が正しい可能性は⾼いと考えている
• しかしながら、⾒かけ上の普遍性に例外が否かはさらなる調査が必要
• 普遍性の仮説がNNで広く真実であることが判明した場合様々なメ
リットが考えられる
• 神経科学と深層学習の繋がりの理解など
• 回路の研究という観点で普遍性は本当に必要なのか?
• 最初の2つと⽐べると、特に仮説が成り⽴たなくても致命的ではない
• 普遍性仮説は、回路研究のどの形式が理にかなっているのかを決定
する要因にはなる
• モデル間での「視覚的特徴の周期表」の作成ができる
• 誤りであれば、⼀つづつの社会的に重要なモデルに関して紐解くしかない
Interpretability as a Natural Science
• なんかいい感じに照らし合わせて理解を深められそうですね(略
Closing Thoughts
• 顕微鏡は新しい分野を拓くのに重要な科学機器!
• 解釈可能性のコミュニティからの意⾒として、これらの研究に
対して、定性的すぎる且つ科学的でないという意⾒もあると考
えている
• 顕微鏡と細胞⽣物学の教訓は、細胞の発⾒は定性的な研究結果
だったので、わんちゃん可能性あるっしょ!
第⼀部 〜完〜
An Overview of Early Vision in InceptionV1
• 「ニューロングループ」分類されたInceptionV1の最初の5層の
ガイド付きツアー
An Overview of Early Vision in InceptionV1
• ⼊⼒に近い層は機能がシンプルでニューロンの数が少ない
• 機能が普遍的である可能性が⾼く、異なるアーキテクチャとタスク間で同
じ機能と回路を形成する
• -> 初期レイヤーの 1,056個のニューロンのみを検討することで理解を深め
る
• 全部⼿作業で多⼤な時間がかかるため絞っているが、意外と解析するには⼗分な数
だった、らしい
Playing Cards with Neurons
• かの有名なDmitri Mendeleevは、カードに各要素の詳細を書き、
それらを分類および整理するさまざまな⽅法を⾟抱強く試⾏錯
誤することで、周期表を発⾒したと、よく⾔われる
• ニューロンファミリーでも同じようなことをすることで周期性
や規則性を発⾒できないか?という取り組み
• ガボールフィルターや⾊コントラスト検出器が最初の層に現れる、な
ど
• これらを⼀般化できないか?
Playing Cards with Neurons
• この記事では、InceptionV1の最初の5層にあるユニットの
ニューロンファミリーの分類についてNetDissect [Bau+,
CVPR2017]の分類を参考に説明
• ニューロンを事前定義された機能のセットと相関させ、⾊、テクス
チャ、オブジェクトなどのカテゴリにグループ化
• スケーラブルな反⾯、事前定義では真の機能を⾒逃す可能性もある⽋
点もあるが、全部⾒るのは不可能なので⼀旦これで
• 注意書き
• ⼤まかな概要であり、カテゴリーの誤解も含まれる可能性もある
• カテゴリの境界は曖昧なこともある
Presentation of Neurons
• Feature Visualizationの⼿法を活⽤して機能を可視化する
• 可視化したもののグループに対して役割の名前を名付けている
Presentation of Circuits
• 回路の動作理解のために、前の層で最も強い重み(L2Norm)を持
つユニットとそれらの間の重みを可視化
• ニューロンの特徴の視覚化をクリックして、最も接続されている前
の層の50個のニューロンに対する重みを確認できる(URL参照)
https://storage.googleapis.com/distill-circuits/inceptionv1-weight-explorer/mixed3a_175.html
conv2d0
• 最初のconv layerは主に2種類の機能で構成
• カラーコントラスト検出器とガボールフィルター
• ただし完璧ではなく、ノイジーである
• BNやAdam普及前だったので、勾配がうまく到達していなかったと考えられる
conv2d0
• 最新⼿法で学習された(BN⼊)InceptionV1はもっとキレイ
conv2d1
• ニューロンはconv2d0のユニットと同様のパターンに応答するが、位置と
⽅向の変化に対して不変
• Complex Gaborを形成:単純なGaborとは異なり、エッジの正確な位置や
明暗に対しては⽐較的不変
• 暗明の反転に関係なく同じパターンを検出する「相互ガボールフィルター」 -> “ケー
ス結合”の初期の例
conv2d1
• より不変なカラーコントラスト検出器、単⼀の⽅向に対して選択性が低い
Gaborのような機能、低周波数機能など、さまざまな機能が⾒られる
conv2d2
• 「ライン検出器」に近い最初のユニットが現れ、ユニットの約
25%を占める
• ⼩さな曲線検出器、コーナー検出器、発散検出器、および単⼀
の⾮常に⼩さな円検出器も⾒られる
conv2d2
conv2d2
• 機能の視覚化より、前層の組み⽴てを可視化
カラーコントラスト
直線検出
conv2d2
• 機能の視覚化より、前層の組み⽴てを可視化
mixed3a
• 機能の多様性が⼤幅に増加(曲線検出器や⾼低周波数検出器など)
Black & White Detectors
• mixed3a以前の層では、⾊コントラスト検出器は、⻘と⻩⾊などの対⽐を
⾏っていた
• この層以降はそれらを組み合わせて、⾊がある・ない場合と⽐較する⾊検
出器がよく⾒られるようになる
• ⽩黒検出器もその⼀種
• ほとんどすべてが負であり、⾊がないことを検出
• NOT(color_feature_1 OR color_feature_2 OR ...)のようなイメージ
Small Circle Detector
• 前層の曲線と円検出器をつなぎ合わせることで、様々な⼩さな
円や⽬の検出器が形成される(conv2d2)
Triangle Detectors
• line (conv2d2) とshifted line (conv2d2)の組み合わせで三⾓形
が形成される
• これらの三⾓形検出器は、マルチエッジ検出器または凸状の境
界を検出するため組み合わせて使⽤される事が多い
mixed3b
• 2つのレベルの抽象化が現れる
• 物体境界検出器、初期の頭部検出器、および形状検出器などの⾼レベルなもの
• Color Center-Surroundユニットのような低レベルなもの
Boundary detectors
• ⾼低周波数検出器を活⽤して、⾊や頻度の変化のみを検出
• 私達が想像するような、単純な直線や曲線検出器の単なる反復組み合わせではない
• => ⾼低周波数検出器が構築された経緯はここにある?
• (最急降下法すごい)
Curve-based Features
• sophisticated curves、circles、 S-shapes、 spirals、 divots、
evolutesなどが形成される
• 概念的に曲線検出器を下記のようにつなぎ合わせるものと考え
ることができる
Fur detectors
• 指向性⽑⽪検出器
• Furの前駆体(mixed3a)をつなぎ合わせることによって実
装される
mixed3b
• 他にも様々なファミリーがある
mixed3b
• 分類しづらい項⽬も多数あり
• 特定の動物の体を検出するように⾒えるが、他の多くの刺激にも応答
するため、説明が難しい物も多い
Conclusion
• InceptionV1の初期の視野に関する現在の理解の概要を説明
• ただしまだまだ多くの問題はオープンクエスチョン
• ユニットの機能は潜在的であり本当に”特定の機能”と呼べるか?
• 今後の記事では、曲線を⼿始めに機能を厳密に調査
• ⼈間の理解に役⽴つ可能性はあるが、最終的にはある程度恣意的な分
類法
• モデル間で同じ機能ファミリがどの程度形成されるのか?
第⼆部 〜完〜
Curve Detectors
• 曲線検出器の機能を果たしていそうなニューロンを様々な⽅法
で調査
• 実際に”曲線”のみに反応しているのかどうかを検証するために
、いくつかの解析⼿法を⽤いて検証
• この記事は、曲線検出器について深く掘り下げる3つの記事の
最初の部分
• 動作の確認
• ニューロンの構築過程
• モデル全体での普及率(共通率?)
Curve Detectors
• 特定のターゲットのみに反応しているのかどうかを検証すると
いうのは難しい課題
• 解釈可能性コミュニティーが話題にするところ
• ⽬検出器、頭部検出器、⾞検出器が⾒えるという報告もあるが
• 実際には⽝の頭に関連する特殊なテクスチャの検出器であると結論付
けるものもある
• ニューロンに意味があり、意味のある回路を形成したと仮定し、
ニューラルネットワークのエンジニアリングと解釈することで
アプローチ
A Simplified Story of Curve Neurons
• 3bの曲線検出器である10個のニューロンを例に、どのように機
能するかについて簡単に説明
A Simplified Story of Curve Neurons
• 発⽕に⽅向性がある
• 明るさ、テクスチャ、⾊などの⾒た⽬上の特性に対して不変
A Simplified Story of Curve Neurons
• 活性化を持ち、ImageNetの空間位置のわずか10%に応答して発⽕
• 通常は発⽕しても応答は弱い
• 強く発⽕をする場合は、特徴の視覚化と同様の⽅向と曲率を持つ曲線に応答
曲線検出器の価値
• InceptionV1は、画像をカテゴリに分類するようにトレーニングされ
ている
• 最急降下法の最適解として曲線検出器が構築された
• ⾃然画像の曲線を検出することは、古典的なコンピュータビジョン
では困難
• InceptionV1は、5つの畳み込み層を使⽤して実装された、この問題に対する
柔軟で⼀般的なソリューションを学習している様に⾒える
• ただし、何を主張すればニューロンが曲線を検出しているという
か?は様々な意⾒がある
• 経験的に曲線に対して発⽕していると⽰すのは簡単であるが、次の
ような論争になる可能性のある主張がある
A Simplified Story of Curve Neurons
• Causality(因果関係)
• 曲線と相関する刺激ではなく、曲線を真に検出する。「逆に実⾏すると」曲線が⽣
成されるため、機能の視覚化と帰属の視覚化の実験によって因果関係が確⽴される
と考えている。
• Generality(⼀般性)
• 広範囲の半径に対してカバーしており、⾊・明暗・テクスチャなどの外⾒属性に対
して不変である。Syntheticな刺激に対してこれらの普遍性を⽰すことは説得⼒のあ
る根拠であると考える。
• Purity(純度)
• Curve Detectorは複数の意味を持ち合わせず⼆次的な機能がない。様々なActivation
の⼤きさによるデータセットの例を分類し、可視化することで⼆次的な機能が稀で
あることを⽰す。(次回の記事で深堀り)
• Family
• 曲線ニューロンは、曲線のすべての⽅向に集合的に広がる
Feature Visualization
• Feature Visualizationでは最適化を利⽤して、objectiveを最⼤
化する⼊⼒を⾒つける
• 特徴の可視化によって因果関係を⾒つけることに利⽤
• 注意深くみると⼩さな垂線があり、この線をcombingと呼ぶ
(後に説明)
Dataset Analysis
• 3b:379にフォーカスしてデータセットに対する応答を⾒る
(⼈⼒作業になるので)
• データセット内でのActivationの分布を可視化することで
Activationの発⽕の強さや頻度を研究
• 3b:379のPre-activationの平均値は-200
• ReLUのActivation後、約11%のデータセットに対して発⽕
Dataset Analysis
• この分布のさまざまな部分を定性的に理解するために、3b:379の値ごとに画像をランダムにサンプ
リングしてキルト化(タイリング)
• 最も強い活性化を引き起こす画像: ニューロンの特徴の視覚化に似た曲線
• 弱く正の活性化を引き起こす画像: 平坦すぎる、⽅向がずれている、その他の⽋陥がある不完全な曲線
• 0に近いPre-ReLU Activationを引き起こす画像: 直線または円弧のない画像になる傾向があり、⼀部の
画像は⽅向から約45度ずれた曲線
• 最も強い負の活性化を引き起こす画像: ニューロンの理想的な曲線から45度以上離れた⽅向の曲線
Dataset Analysis
• 画像のキルトは誤解を招く可能性もある
• 画像のReceptive-fieldのトリミングに対するニューロンの活性化は単
⼀の数値であるため、画像のどの部分がそれを引き起こしたのかを確
認することはできず、その結果疑似相関に騙される可能性もある
• 例えば、3b:379を最も強く発⽕させる画像の多くは時計であるため、
ニューロンは曲線でなく時計を検出するものと考えることもいえる
• 画像がニューロンを興奮する理由を確認するために、特徴の可
視化を利⽤して画像のニューロンへの帰属を可視化できる
Visualizing Attribution
• NNの帰属を明らかにする既存研究は多い
• これらの⽅法はどのpixelもしくは以前のニューロンが発汗原因であるかを説
明しようとする
• 線形の場合、⼀般的に帰属は同意されている
• ニューロンのPre-activationとbias値はその前のニューロンの線形関
数であるため、⼀般的に合意された帰属⽅法を使⽤可能
• 特に3bの活性化前の値の曲線検出器は3aの線形関数であり、影響度合いの帰
属テンソルはActivationに重みをかけたもの
• 可視化の際は下記の式を利⽤
• ポジティブネガティブ両⽅の反応を可視化(abs)
• 実際にはAttributionの可視化をグレースケールでパラメーター化しより読み
やすくしている。
Visualizing Attribution
• この実験は3aのすべてのニューロンを可視化するが、帰属は様々
な⽅法でCircuitsの研究に適⽤できる強⼒なツール
• 各Activation Vectorはfamiliyが画像で⾒たものも⽰し、それが
3b:379にどれだけコントリビューションしたかを⽰している
Human Comparison
• データセット画像から情報を抽出するために、ニューロンの活性化⾃体を⾒ずに
画像を⼿作業で分類
• 著者の⼀⼈であるNickは⼿動で800枚以上の画像を4つのグループに分割し、ラ
ベリング
• 3b:379から⼀定数の画像を100binごとにランダムにサンプリング
• Nickは画像のピクセルのみをみて下記のルーブリックによりアノテーション
を⾏った(ニューロンのActivationやVisualizationは⾒ない)
• 4種類のラベル
• Curves: ニューロンの特徴の可視化と同等の⽅向の曲線の含まれる画像で、
曲線は画像の⼤部分を横切っている。
• Imperfect Curve: 上記に似ているが、少なくとも1つ⽋陥がある。例えば、
平坦すぎたり、円弧を遮る⾓度があったり、⽅向がずれていたり。
• Unrelated: 画像に曲線が含まれていない。
• Opposing Curve: 画像には、ニューロンの特徴の視覚化と45度以上異なる曲
線が含まれている。
Human Comparison
• アノテーションをしたあと、3b:379のactivationの⽐較を⾏った
• Stackplotを⽤いることで、各ラベルが異なるActivationに分類され
ることがわかった
Human Comparison
• しかしながら、下記の例のようなactivateされるがcurveに分類
されないようなイメージも多くあった
• 可視化することでラベル付けのプロセスで⾒逃した曲線を発⾒
• こういったケースにおいては⼈間以上の性能を3b:379は持っているように感
じ取れる
How important are different points on
the activation spectrum?
• チャートは⼿作業でラベリングされたものを⽐較することには
役⽴だつが、、、
• 3b:379は曲線に対してとても選択的であるように⾒えるが、
ニューロンが発⽕するケースは極稀
• 殆どの場合発⽕せず、発⽕したとしても反応は⾮常に微弱
How important are different points on
the activation spectrum?
• ImageNetのexampleに対して、Activation Magunitudeの確率
密度を⾒る
• 活性化マグニチュード当たり(x軸)の⽐率に分割
正直わからん
How important are different points on
the activation spectrum?
• グラフより、ニューロンが強く発⽕するケースは稀
• 画像の中で明確な曲線はめったに起こらないので強い発⽕は稀
• 確率密度がニューロンの振る舞いについて考える正しい⽅かどう
かというのは明らかではない
• ケースの⼤部分はニューロンが発⽕しない
• ラベル付のエラーと曲線の希少性が原因というということも考えられる
How important are different points on
the activation spectrum?
• 代替⼿段として、期待値への寄与率x * p(x)を考える
• 活性化値がニューロンの出⼒にどの程度影響するか、拡張ネットワー
クの動作によって概算を与えると考えることができる
How important are different points on
the activation spectrum?
• 期待値の寄与は、曲線と不完全な曲線が55%を形成
• これは、3b:379が曲線検出器であるという仮説と⼀致しているようみえる
• 発⽕させる他の刺激はラベル付エラー及びノイズの多い画像がニューロン
のmisfireと考えられる
多分ここの面積なぞのひょっこり
Post-activationの平均寄与?
それともマイナスも含む?
How important are different points on
the activation spectrum?
• 実験結果から、3b:379は⼈間によるラベル付けの判断にほぼ対
応しているように⾒える
• さらに画像の帰属ベクトルを可視化することで、発⽕する理由は
画像の曲線によるものであり、擬似相関ではないことが分かる
• しかし、これらの実験は曲線ニューロンが曲線画像を検出という
主張には不⼗分
• 曲線画像がデータセットに含まれることはめったに無いため、曲線画像
を体系的に調査する必要あり
次の実験ではこの問題に直接焦点を当て、曲線ニューロンが妥当
な曲線画像空間にどう反応するかを研究
Joint Tuning Curves
• 同じ機能で⾓度違いのものを実際
に検出することを確認し、各ユ
ニットが向きの変化にどの程度敏
感であるかを特徴づける実験
• 各ニューロンには、その優先⽅向
を囲むガウスのような隆起がある
• 各ニューロンが発⽕を停⽌すると、
別のニューロンが発⽕を開始し、
曲線のすべての⽅向に広がる
Joint Tuning Curves
• Turing Curveは画像の摂動全体に
対するニューロンの活性化を測定
するのに役⽴つが、実⾏可能な摂
動の種類によって制限される
• 次の実験では⼈⼯的な刺激をレン
ダリングすることでより広範囲な
摂動を⾏う
Synthetic Curves
• 様々な⾓度や曲率の画像を⼈⼯的に合成して反応を確認
• ニューロンが発⽕をヒートマップとして提⽰
Synthetic Curves
• 各ニューロンに対して適⽤
• アクティブな場所は標準偏差
の24倍の⼤きさ
Why do we see wispy triangles?
• 三⾓の形状は、曲線検出器が曲率の⾼い曲線のより広い範囲の
⽅向に応答することを⽰している
• 曲率が⼤きければ⼤きいほど反応する⾓度を含んでいる
• 直線には曲線の⽅向が含まれておらず、円にはすべての曲線の⽅向が
含まれていると考えると良い
Why do we see wispy triangles?
• ⽅向または曲率のわずかな変化がアクティベーションの劇的な
変化を引き起こす可能性があることを⽰している
• 曲線検出器は繊細で堅牢ではないことを⽰している
Why do we see wispy triangles?
• たった2つの変数によって、ほとんど知覚できない摂動が明ら
かになる
• ⾼次元のピクセル空間に有害なエクスプロイトが含まれていることを
⽰しているのではないか?
• 特有の敵対的攻撃を深く研究する研究の⽅向性も⾒えそう?
• Circuits * 初期ビジョンの研究に向いている
• 回路全体を⼊⼒に戻すことがしやすい
• 回路の重要な部分を抽出して個別に研究できる
• => ニューロンをより堅牢にする⽅法、モデル全体を敵対的な攻撃から
保護する⽅法の⼿がかりを与える可能性も⾒えてくる
Dataset Analysis
• 曲線形状の塗りつぶし、⾊の有無もテスト
• 曲線検出器が照明や⾊などの視覚特性に対して不変であることを⽰唆
Synthetic Angles
• synthetic curveの実験とdataset analysisの両⽅によって、曲
線は⽅向に敏感だた曲線の半径に対して許容範囲が広いことが
わかった
• 曲線ではなく、実際には⽅向に関して多くの形状に応答すると考える
可能性がある
• 次の実験では、合成曲線と同様に合成⾓度を変化させる
Synthetic Angles
Synthetic Angles
• 2つの異なる線が曲線に近い⾓度だと最も強い反応を⽰す
• 2本の線のうち、⽚⽅がニューロンの特徴の視覚化に⼀致する
と反応する
• 直線の半分が外側を向いているものは、活性化が弱い
Synthetic Angles
• 鋭利な⾓度から緩やかな⾓度へ変化させる
• ⾓度が緩やかになるにつれて発⽕が強くなっている
Synthetic Angles
• この⼿法は、さまざまな曲線ニューロンが複数の刺激特性の変
化にどのように反応するかを確認するのに役⽴つ
• しかしながら情報量が多くなりがち
• => 次のセクションでは、よりコンパクトな⽅法(Radial
Tuning Curve)を導⼊
Radial Tuning Curve
• 反応を平滑化
• 円に巻きつけて⾓度ごとに強
度を出す
The Curve Families of InceptionV1
• Conv2d2 / 3a / 3b / 4a の4つの畳み込み層を⾒ていく
conv2d2
• 同⼼曲線とコームエッジの2種類の曲線検出器が含まれている
• 同⼼曲線は半径が⼤きくなるにつれて同じ⽅向にある複数の曲線を
選択する⼩さな曲線検出器
• 広範囲の半径を検出する3aおよび3bの曲線検出器に活⽤されていると考えら
れている
• コームエッジは⼤きな線から垂直に突き出ている複数の線を検出
• (円に対して垂直に直線が出ているもの)
• 後の曲線検出器を構築し、コーミング効果の役割を果たす
conv2d2
• 180度離れた反対側の範囲にも弱く反応
• ⼆次範囲エコーと呼ぶ
3a
• ⾮同⼼曲線検出器が形成
• 多くの点で3bに似ているが、 3aには曲線にエコーがある
3b
• この記事で焦点を当てている曲線検出器
• エコーがなくなり、綺麗な活性化を⾏う
• 上部に2つの⼤きな⾓度ギャップがあり、下部に⼩さなギャップがある
• 2つの⽅向をカバーするdouble curve detectorの影響が1つ原因として考えられる
4a
• スパイラルや境界検出器などの多くの複雑な形状を構築
• 3Dジオメトリを構築する最初のレイヤー
4a
• Ex) 4a:406は2つの異なる⾓度に対して、⼆次的な動作を含む上
向きの曲線検出器に⾒える
• ある⾓度から⾒たカップやフライパンの上部を検出
• 傾斜した3D円検出器とみなせる
• => NNの解釈可能性がどう主観的に⾒えるかの良い例
Repurposing Curve Detectors
• ⼀例として曲線検出を調査したが、航空写真、⾃動運転⾞、医
学研究などの分野で曲線検出が重要
• 各ドメインにおいて曲線検出に関する古典的な幅広い⽂献が存在
• カーブニューロンファミリーを活⽤してこれらを検出するプロ
トタイプを作成
Repurposing Curve Detectors
• 1つのタスクは曲線の抽出
• 視覚化により、線と曲線が明確に分離されて照らされ、視覚的なアーティ
ファクトが少なくなる
• ただし、強⼒なコーミング効果(曲線に対する垂直な線)
• 回路を編集することで取り除くことができると考えている
• 特にこのプロトタイプが既存⼿法より優れているわけではないが回路の活
⽤の可能性を⽰した
Spline Parameterization
• 微分可能な曲線レンダリングを⾏ってスプライン⽅程式のパラ
メーターを探索するプロトタイプを作成
引用にあった論文
Independent Reseacher
カコイイ!
Spline Parameterization
かなりのオクルージョンがある場合
でも曲線をトレース可能
さらに帰属を使⽤して複雑なオク
ルージョンルールを構築できる
曲線ニューロンは⾃然な視覚的特徴に
対してロバストであるため、
曲線追跡アルゴリズムを画像の微妙な
曲線に適⽤
Algorithmic Composition
• トレースしたあとNMFを⾏うことで曲線とオブジェクトを分割
できる
いい感じの画像
The Combing Phenomenon
• 曲線に垂直な外内両⽅に現れている線 => コーミング(Combing)
• コーミングはImageNetだけでなくPlaces365でトレーニングされ
たモデルを含む、多くのモデルの曲線検出器で発⽣
• マカクザルの視野覚のV4領域にも現れることがわかっている
The Combing Phenomenon
• いくつかの仮説はあるが⽴証はされていない
• 現代の社会にある曲線はホイールのスポークや時計のメモリなど
垂直な線が含まれていることが多い、という仮説が挙げられる
• また、 ⽑⽪の検出に利⽤されているという仮説もある
The Combing Phenomenon
• 画像が単⼀の繰り返しテクスチャではなく、コントラストで囲
まれた強い線があるということを検出している可能性
• 接線に沿った平⾏線を弱く抑え込んでいる?
• コーミングはカーブに固有のものではなく、直線にも現れてい
る
mixed3a
Conclusion
• 神経科学と⽐較してNNの解析は⽐較的容易!
• カーブファミリーを理解するのに1週間かかると予測したが、数ヶ⽉かけて
関係性や構造を理解した
• 合成刺激・回路編集によるニューロンの除去など多く新しい技術に
繋がりそう
• OpenAI Microscope(https://microscope.openai.com/models)便利
• 特徴の視覚化は因果的⾏動の証拠を⽰し、データセットの例は
ニューロンが実際に何に応答するかを⽰しているため、これらは集
合的にニューロンの機能についての証拠となる
• たった10個のニューロンの解析では論⽂のトピックとしてすぎると
思っていたが、今では完全な調査をすると本1冊書けそうということ
がわかった
第三部 〜完〜
Equivariance in Neural Networks
• NNの中には対象性のある機能(同じ機能だが回転・拡⼤縮
⼩・反転・異なる⾊に対して反応するもの)が⾃然と形成され
る
• 同変(equivariance)と呼ぶ
• ニューロンを切り替えることが⼊⼒を変換することと同義
• 同変は、システム⽣物学のモチーフに類似した⼀種の「回路モ
チーフ(Circuit Motif)」と⾒なすことができる
• この同変について具体的機能を例に解説
• 本記事ではImageNetで学習されたInceptionV1に焦点をあてる
が、その他いくつかのモデルに関しても同変を確認できた
Equivariant Features
• Rotational Equivariance / 回転変換に対する同変
• 初期の視覚野で現れる
• Ex) 曲線検出器、⾼低周波数検出器、線検出器
Equivariant Features
• Scale Equivariance /スケールに対する同変
• 初期の層に⼩さなものが、後の層に⼤きなものが現れる
• Ex) 多種多様なスケールにわたる円検出器
Equivariant Features
• Hue Equivariance / ⾊相同変
• 異なる⾊相で同じ形を検出する
• color center-surrounはその周囲の反対の⾊相検出
• InceptionV1では、7-8番⽬の層まで現れている
Equivariant Features
• Hue-Rotation Equivariance / ⾊相回転同変
• color contrast unitは⽚⽅づつの⾊相を検出 -> ⾊相と回転を検出
• ⾊相を180度回転させるとフィルタを180度回転させることと同義になる
• 図の例では、⽅向は360度回転しているが、⾊相は180度しか回転してい
ないことを⽰している
Equivariant Features
• Reflection Equivariance / 反射同変
• ネットワークの中間層に移動すると、回転した変化は⽬⽴たなくなる
• ⼀⽅で⽔平⽅向に反転したペアが多く現れるようになる
Equivariant Features
• Miscellaneous Equivariance(その他)
• ⽝の頭部検出器における⿐の短⻑
• 同じ機能における⼈間と⽝
• カメラの遠近法と同変のユニット(Places365)
Equivariant Circuits
• 同変の振る舞いは、NNの重みと回路の対称性を深く反映して
いる
• まずは回転不変(rotational invariant)の特徴から形成される回
転同変(rotational equivariant)の特徴に焦点を当てる
• 「不変→同変」の場合は、最も単純な同変回路
• 次に「同変→不変」回路を⾒て、最後により複雑な「同変→同
変」回路を⾒ていく
rotationally invariant
rotationally equivariant
Equivariant Circuits
• High-Low Circuit (⾼低周波数検出器)
• ⾼周波数因⼦と低周波数因⼦から構築
• 同変パターンを回路の回転により⽣成していることに注⽬
Equivariant Circuits
• Contrast→Center Circuit
• 回転的に等変な特徴を活⽤し回転的に不変な特徴を構築
• 「同変(equivariant) →不変(invariant)」回路
• Equivarianceが形成されると、次の層でそれを活⽤したinvariance
が構築されやすい傾向にある
Equivariant Circuits
• BW-Color Circuit
• ⾊特徴と⽩黒特徴を使⽤して、⽩黒vsカラーの特徴を作成
• その特徴を利⽤して中央で⽩黒・周囲をカラーで検出するユニットを
作成
Equivariant Circuits
• Line→Circle/Divergence Circuit
• 同変 -> 不変の例
• Complex Gabor Filterを組み合わせて円検出器・発散検出器を構築
Equivariant Circuits
• Curve→Circle/Evolute Circuit
• 同変->不変 + スケール同変の例
Equivariant Circuits
• Human-Animal Circuit
• ⽔平反転の例
Equivariant Circuits
• Invariant Dog Head Circuit
• 左右の⽅向の頭部検出器が結合し、ポーズ不変の⽝の頭の検出器に
“Equivariant→Equivariant” Circuits
• 「不変(invariant)→同変(equivariant)」または「同変→不変」
を⾒てきた
• 不変の⼊⼒ユニットまたは不変の出⼒ユニットを持っていた
• 回転、反転、またはその他の⽅法で変換されるが、単⼀の特徴変換の
み
• 「同変→同変」回路はより複雑
• ⼊⼒機能と出⼒機能の両⽅が変換されるため、2つのユニット間の相対
的な関係を考慮する必要がある
“Equivariant→Equivariant” Circuits
• Hue→Hue Circuit
• ⾊相同変中⼼周囲検出器を接続
する例
• ユニットは同じ⾊相を持つユ
ニットによって励起され、わず
かに異なる⾊相を持つユニット
によって抑制される傾向がある
• => より鮮明なユニットを形成
“Equivariant→Equivariant” Circuits
• Curve→Curve Circuit
• 90度回転した4つの曲線検出器
• 各曲線は、同⽅向の曲線によっ
て励起され、反対⽅向の曲線に
よって抑制される
• 同時に、重みの空間構造も回転
“Equivariant→Equivariant” Circuits
• Contrast→Line Circuit
• 両側に異なる⾊がある場合、直
線検出器はより強く発⽕
• ⽅向が異なる逆は抑制
• 回転に関しては「同変→同変」
だが、⾊相に関しては「同変→
不変」になっている
Equivariant Architectures
• 今まで⾒てきた“⾃然な同変”でなく”同変アーキテクチャ設計”に焦点を向ける
• 「⾃然な」同変と「設計された」同変は深く関わっている
• 例として、CNNの⼀層⽬に現れるテンプレート
• 異なる位置、⽅向、スケールのガボールフィルターは何度学習しても現れる
• 統計的効率の⼤幅な向上
• この現象に触発されて 単⼀のガボールフィルターを変換、回転、およびスケーリングさ
れたスパースコーディングモデルを作成[Bergstra+, 2011]
• 多くの論⽂がこの同変写像をニューラルネットワークの隠れ層やより幅広い種類の変換
に拡張
Equivariant Architectures
• CNNの2つの特徴間の重みが同じ相対位置にある場合、それらが同値になるようにすると
下記の式になる
• ⼀般的な変換の下で同じ相対関係を持っている場合、2つのニューロン間の重みを等しく
する
Equivariant Architectures
• 恣意的に同変を導⼊するとどうなるのか?
• [Cohen+, ICML2016]を参考に ニューロンの半分を回転同変(16回転)
• ImageNetでInceptionV1に⼤まかに同変モデルを学習
• =>調整していないため精度は悪いが、同変ファミリの類似体を学習し
た
Equivariant Architectures
• 同変モデルに類似の特徴が存在==解釈可能性の予測の成功?
• 同変NNアーキテクチャにおいて、どの機能が形成されるかを
予測することは重要であり、現象を正しく理解しているという
裏付けになる
Conclusion
• 同変にはNNの理解を単純化する優れた能⼒がある
• NNの理解することは、プログラムをリバースエンジニアリングするよう
なもの
• 同変は、コード全体で繰り返される同じインライン関数を⾒つけるようなもの
• しかし、⾃然な同変にはいくつかの制限がある
• 同変ファミリーを⼿作業で⾒つける必要がありかなりの労⼒
• NNの機能と回路を理解しやすくするための同変アーキテクチャの可能性
• 将来的に、同変アーキテクチャは、NNの初期視覚を理解することで、複
雑さを軽減できるはず
• おれたちの戦いはこれからだ!〜完〜
第四部 〜完〜
多分第8部ぐらいまであるよ

More Related Content

What's hot

Architect Dec By Infoq
Architect  Dec By InfoqArchitect  Dec By Infoq
Architect Dec By Infoqliu qiang
 
sigfpai2009_okanohara
sigfpai2009_okanoharasigfpai2009_okanohara
sigfpai2009_okanoharaHiroshi Ono
 
Cloud for Enterprise IT (Japanese)
Cloud for Enterprise IT (Japanese)Cloud for Enterprise IT (Japanese)
Cloud for Enterprise IT (Japanese)kurikiyo
 
如何成为真正的Ppt高手(完整传播版)
如何成为真正的Ppt高手(完整传播版)如何成为真正的Ppt高手(完整传播版)
如何成为真正的Ppt高手(完整传播版)zhangzhifs
 
Ds 016 精密機械設計總體設計
Ds 016 精密機械設計總體設計Ds 016 精密機械設計總體設計
Ds 016 精密機械設計總體設計handbook
 
Cellphone Wallet Service Trends in Japan
Cellphone Wallet Service Trends in JapanCellphone Wallet Service Trends in Japan
Cellphone Wallet Service Trends in JapanMasaru IKEDA
 
136 Ch
136 Ch136 Ch
136 Chanjaan
 
Nokia Pc Suite 6.41使用说明
Nokia Pc Suite 6.41使用说明Nokia Pc Suite 6.41使用说明
Nokia Pc Suite 6.41使用说明guest04df77
 
Ohp Seijoen H20 01 Programming No Nagare
Ohp Seijoen H20 01 Programming No NagareOhp Seijoen H20 01 Programming No Nagare
Ohp Seijoen H20 01 Programming No Nagaresesejun
 
新生說明會_slide
新生說明會_slide新生說明會_slide
新生說明會_slideMu Chun Wang
 
如何成为真正的Ppt高手(传播版上)
如何成为真正的Ppt高手(传播版上)如何成为真正的Ppt高手(传播版上)
如何成为真正的Ppt高手(传播版上)zhangzhifs
 
2006增刊目录
2006增刊目录2006增刊目录
2006增刊目录guest2bb2c
 
Jaws2008 Presen12
Jaws2008 Presen12Jaws2008 Presen12
Jaws2008 Presen12umekoumeda
 
980226投影片
980226投影片980226投影片
980226投影片thdl
 

What's hot (18)

Architect Dec By Infoq
Architect  Dec By InfoqArchitect  Dec By Infoq
Architect Dec By Infoq
 
rrds08
rrds08rrds08
rrds08
 
090601-dotplot
090601-dotplot090601-dotplot
090601-dotplot
 
sigfpai2009_okanohara
sigfpai2009_okanoharasigfpai2009_okanohara
sigfpai2009_okanohara
 
Cloud for Enterprise IT (Japanese)
Cloud for Enterprise IT (Japanese)Cloud for Enterprise IT (Japanese)
Cloud for Enterprise IT (Japanese)
 
Thailand Internet User 2003
Thailand Internet User 2003Thailand Internet User 2003
Thailand Internet User 2003
 
如何成为真正的Ppt高手(完整传播版)
如何成为真正的Ppt高手(完整传播版)如何成为真正的Ppt高手(完整传播版)
如何成为真正的Ppt高手(完整传播版)
 
Ds 016 精密機械設計總體設計
Ds 016 精密機械設計總體設計Ds 016 精密機械設計總體設計
Ds 016 精密機械設計總體設計
 
Cellphone Wallet Service Trends in Japan
Cellphone Wallet Service Trends in JapanCellphone Wallet Service Trends in Japan
Cellphone Wallet Service Trends in Japan
 
136 Ch
136 Ch136 Ch
136 Ch
 
Nokia Pc Suite 6.41使用说明
Nokia Pc Suite 6.41使用说明Nokia Pc Suite 6.41使用说明
Nokia Pc Suite 6.41使用说明
 
Ohp Seijoen H20 01 Programming No Nagare
Ohp Seijoen H20 01 Programming No NagareOhp Seijoen H20 01 Programming No Nagare
Ohp Seijoen H20 01 Programming No Nagare
 
新生說明會_slide
新生說明會_slide新生說明會_slide
新生說明會_slide
 
如何成为真正的Ppt高手(传播版上)
如何成为真正的Ppt高手(传播版上)如何成为真正的Ppt高手(传播版上)
如何成为真正的Ppt高手(传播版上)
 
2006增刊目录
2006增刊目录2006增刊目录
2006增刊目录
 
Jaws2008 Presen12
Jaws2008 Presen12Jaws2008 Presen12
Jaws2008 Presen12
 
980226投影片
980226投影片980226投影片
980226投影片
 
105 ranking
105 ranking105 ranking
105 ranking
 

More from Takanori Ogata

20200704 Deep Snake for Real-Time Instance Segmentation
20200704 Deep Snake for Real-Time Instance Segmentation 20200704 Deep Snake for Real-Time Instance Segmentation
20200704 Deep Snake for Real-Time Instance Segmentation Takanori Ogata
 
CVPR2019読み会@関東CV
CVPR2019読み会@関東CVCVPR2019読み会@関東CV
CVPR2019読み会@関東CVTakanori Ogata
 
190412 Annotation Survey@関東CV勉強会
190412 Annotation Survey@関東CV勉強会190412 Annotation Survey@関東CV勉強会
190412 Annotation Survey@関東CV勉強会Takanori Ogata
 
180204 Attention-aware Deep Reinforcement Learning for Video Face Recognition
180204 Attention-aware Deep Reinforcement Learning for Video Face Recognition180204 Attention-aware Deep Reinforcement Learning for Video Face Recognition
180204 Attention-aware Deep Reinforcement Learning for Video Face RecognitionTakanori Ogata
 
Unsupervised learning of object landmarks by factorized spatial embeddings
Unsupervised learning of object landmarks by factorized spatial embeddingsUnsupervised learning of object landmarks by factorized spatial embeddings
Unsupervised learning of object landmarks by factorized spatial embeddingsTakanori Ogata
 
Annotating object instances with a polygon rnn
Annotating object instances with a polygon rnnAnnotating object instances with a polygon rnn
Annotating object instances with a polygon rnnTakanori Ogata
 
Training object class detectors with click supervision
Training object class detectors with click supervisionTraining object class detectors with click supervision
Training object class detectors with click supervisionTakanori Ogata
 
SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)Takanori Ogata
 
160924 Deep Learning Tuningathon
160924 Deep Learning Tuningathon160924 Deep Learning Tuningathon
160924 Deep Learning TuningathonTakanori Ogata
 
Convolutional Pose Machines
Convolutional Pose MachinesConvolutional Pose Machines
Convolutional Pose MachinesTakanori Ogata
 
Deep Learningライブラリ 色々つかってみた感想まとめ
Deep Learningライブラリ 色々つかってみた感想まとめDeep Learningライブラリ 色々つかってみた感想まとめ
Deep Learningライブラリ 色々つかってみた感想まとめTakanori Ogata
 
10分でわかる主成分分析(PCA)
10分でわかる主成分分析(PCA)10分でわかる主成分分析(PCA)
10分でわかる主成分分析(PCA)Takanori Ogata
 

More from Takanori Ogata (15)

20200704 Deep Snake for Real-Time Instance Segmentation
20200704 Deep Snake for Real-Time Instance Segmentation 20200704 Deep Snake for Real-Time Instance Segmentation
20200704 Deep Snake for Real-Time Instance Segmentation
 
CVPR2019読み会@関東CV
CVPR2019読み会@関東CVCVPR2019読み会@関東CV
CVPR2019読み会@関東CV
 
190412 Annotation Survey@関東CV勉強会
190412 Annotation Survey@関東CV勉強会190412 Annotation Survey@関東CV勉強会
190412 Annotation Survey@関東CV勉強会
 
190410 ML@LOFT
190410 ML@LOFT190410 ML@LOFT
190410 ML@LOFT
 
180204 Attention-aware Deep Reinforcement Learning for Video Face Recognition
180204 Attention-aware Deep Reinforcement Learning for Video Face Recognition180204 Attention-aware Deep Reinforcement Learning for Video Face Recognition
180204 Attention-aware Deep Reinforcement Learning for Video Face Recognition
 
Unsupervised learning of object landmarks by factorized spatial embeddings
Unsupervised learning of object landmarks by factorized spatial embeddingsUnsupervised learning of object landmarks by factorized spatial embeddings
Unsupervised learning of object landmarks by factorized spatial embeddings
 
Annotating object instances with a polygon rnn
Annotating object instances with a polygon rnnAnnotating object instances with a polygon rnn
Annotating object instances with a polygon rnn
 
Training object class detectors with click supervision
Training object class detectors with click supervisionTraining object class detectors with click supervision
Training object class detectors with click supervision
 
SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)
 
160924 Deep Learning Tuningathon
160924 Deep Learning Tuningathon160924 Deep Learning Tuningathon
160924 Deep Learning Tuningathon
 
Convolutional Pose Machines
Convolutional Pose MachinesConvolutional Pose Machines
Convolutional Pose Machines
 
Deep Learningライブラリ 色々つかってみた感想まとめ
Deep Learningライブラリ 色々つかってみた感想まとめDeep Learningライブラリ 色々つかってみた感想まとめ
Deep Learningライブラリ 色々つかってみた感想まとめ
 
Cv20160205
Cv20160205Cv20160205
Cv20160205
 
10分でわかる主成分分析(PCA)
10分でわかる主成分分析(PCA)10分でわかる主成分分析(PCA)
10分でわかる主成分分析(PCA)
 
DeepAKB
DeepAKBDeepAKB
DeepAKB
 

20210108 Tread: Circuits

  • 1. Thread: Circuits What can we learn if we invest heavily in reverse engineering a single neural network? Takanori Ogata
  • 2.
  • 3. Thread: Circuits • DLで構成されたニューロンは特徴を徐々に抽象化して意味のあ る特徴を構築(この⾒解には懐疑的な意⾒も多いが) • => このニューロンと回路(Circuits)の接続関係をより実験的に 調査することで、視認に関する意味理解を深めることはできな いか?というスレッド(記事?) • *まだ連載中で完結していない(現在4本の記事が投稿されて おり、おそらく7-8本ほどで完結?) https://distill.pub/2020/circuits/
  • 4. 今回調査した記事 • Zoom In: An Introduction to Circuits • An Overview of Early Vision in InceptionV1 • Curve Detectors • Naturally Occurring Equivariance in Neural Networks
  • 5. Zoom In: An Introduction to Circuits
  • 6. Zoom In: An Introduction to Circuits 概要 • ニューロンとその接続性を研究することで、NNの重みに意味 のあることができるのではないか、という研究(記事?) • ニューロンとその接続(Circurits)に対して、3つの推測的な主 張を⽴ててその妥当性を説明しようとしている • (Circuits Threadの全体像や触りの部分の説明)
  • 7. Zoomed in • 科学の歴史における重要な移⾏点は、科学が「ズームイン」し た瞬間に起きることが多い • 新しいレベルで詳細に⾒ることができる可視化⼿法やツールを 開発し、そのレンズを通じて世界を研究するための新しい分野 が開発されている • 顕微鏡 -> 細胞⽣物学 • X線結晶学 -> DNAの観察による分⼦⾰命 • 原⼦理論、亜原⼦粒⼦、神経科学など
  • 8. Zoomed in • NNに関しても、可視化とZoom inによって新しい分野を拓くこ とができるのではないか? • 解釈可能性に関するほとんどの研究は、NN全体の動作を簡単 に説明することを⽬的としている • -> 神経科学や細胞⽣物学に触発されたアプローチ、つまりズームイン するアプローチをとるとしたら? • 個々のニューロンや重みをトレース 調査するとどうなるか? • この⼊⾨エッセイでは考え⽅の概要と これらの研究動作原理をこの記事で説明 Andrej+, ICLR2016
  • 9. Three Speculative Claims • 例)現代の細胞説のもととなった、 1839年 によって提唱された Schwannの3つの主張 • Claim 1 • 細胞は、⽣物の構造、⽣理学、組織の単位 • Claim 2 • 細胞は、⽣物の構築において、別個の実体および構成要素としての⼆重の存 在を保持 • Claim 3 • 細胞は、結晶の形成と同様に、⾃由細胞の形成によって形成 • (間違っていることが判明しているらしい) これを参考にNNに当てはめるとどうなるのか?
  • 10. Three Speculative Claims about Neural Networks • Claim 1: Features(特徴) • NNの基本単位、⽅向( 特定の層のニューロンの活性化のベクトル空間にお ける⽅向ベクトル )に対応し、厳密に調査でき理解が可能 • Claim 2: Circuits(回路) • Featuresは重みによって形成され、Circuitsを形成される • これらのCircuitsも厳密に調査でき理解が可能 • Claim 3: Universality(普遍性) • 類似の機能と回路は、モデルとタスク全体で形成される • 1と3に沿った主張は以前に提案されており、完全に新しいものでは ないが、これらが証明されれば 解釈可能性の新しい「Zoom in」分 野の基礎を形成する可能性がある
  • 11. Claim 1: Features • NNは、意味のある、理解しやすい機能で構成されている(と いう仮説) • 初期のレイヤーにはエッジ・カーブ検出器のような機能が含まれ、後 段には⽿やホイールの検出器などの機能が含まれている • ただしコミュニティでは⾮常に議論が割れている • ⼊⾨エッセイでは、説明に役⽴つと思われるいくつかの例の概 要のみを説明 • InceptionV1から例を取り上げて解説 • 今の所⼀般的に当てはまると考えているが、普遍性に関しては最後の セクションで説明
  • 12. Example 1: Curve Detectors • 曲線検出ニューロンはすべての重要な資格モデルに⾒られ、コ ミュニティが広く同意している機能(エッジ検出器など)と、 かなりの懐疑論がある機能(⽿、⾃動⾞、顔などの⾼レベルの 機能)の間の境界にまたがっている • InceptionV1のmixed3bの曲線検出器に焦点を当てると • 半径約60pxの曲線と境界に反応 • 曲線の境界に沿った垂直線によってわずかにさらに励起 • 曲線の両側が異なる⾊であるとよく反応する
  • 13. Example 1: Curve Detectors • カーブを使⽤したサブコンポーネントを検出するユニットも多 数ある(円、スパイラル、Sカーブ、砂時計の形状、3D曲率な ど) • 線や鋭い⾓などの曲線関連の形状に対応するユニットもあり、 これらのユニットをカーブ検出器とは⾒なさない
  • 14. Example 1: Curve Detectors • これらの”曲線検出器”は本当に曲線に反応しているのか? • *後の記事にて詳細な調査を⾏うが、根拠は⾮常に強⼒であると考え ている • 機能を理解するために、概説する7つの議論を⾏う • 3つは視覚神経科学の古典的な⽅法、3つは回路に基づいている
  • 15. Arguments 1. FEATURE VISUALIZATION 曲線検出器が発⽕するように⼊⼒を最適化 結果画像のすべてがニューロンを発⽕させるため、 因果関係を確⽴できる 2. DATASET EXAMPLES 曲線を含むImageNetの画像は、曲線検出器を構成する ニューロンを強く発⽕させ、不完全な曲線または⽅向 が異なる曲線画像はゆるやかに発⽕する 3: SYNTHETIC EXAMPLES 曲線検出器は、さまざまな⽅向、曲率、および背景で作成さ れた⼀連の合成曲線画像に予測通り応答する 予測⽅向の近くでのみ発⽕し、直線や鋭い⾓では強く発⽕し ない
  • 16. Arguments 4. JOINT TUNING ニューロンを発⽕させる画像を回転させると、徐々に発⽕が 弱まり、次の⽅向(別の)ニューロンが発⽕を始める。これ は⾓度別の同類な曲線検出器が存在することを⽰す 5. FEATURE IMPLEMENTATION 曲線検出器を構成する回路を⾒ると、重みから曲線検 出アルゴリズムを読み取ることができる 6. FEATURE USE 下層の曲線検出器の特徴を組み合わせて上層の曲線検 出器を構築している(円、3D曲率、スパイラルなど)
  • 18. Example 2: High-Low Frequency Detectors • 曲線検出器は機能が直感的 • ⾼低周波数検出器は直感的ではない機能の⼀つ • 受容野の⽚側で低周波パターンを、反対側で⾼周波パターンを検出 • -> なぜこのような機能が構築されているのか? • オブジェクトの境界を検出するための経験則の1つと推測 • (後の記事An Overview of Early Vision in InceptionV1で紹介)
  • 19. Example 3: Pose-Invariant Dog Head Detector • より⾼レベルの機能のユニットを考察(イッヌ) • 特徴の視覚化とデータセットの例の組み合わせだけでも、すで に⾮常に強⼒な説明⼒がある • 3Dモデルを使⽤して、さまざまな⾓度から⽝の頭の合成画像を ⽣成することで調査可能 • => アプローチのいくつかは⾼レベルな機能調査に多⼤な労⼒が 必要だが、Circuits-Basedアプローチ(後述)だと簡単に適⽤ 可能で居⼒なツールとして利⽤可能
  • 20. Polysemantic Neurons • すべてのニューロンは⼈間に理解可能か? -> No • 多くの場合、複数の⼊⼒に応答する「多意味ニューロン」が含 まれている • Ex) 猫の顔、⾞の前部、猫の脚に反応する1つのニューロンが存在
  • 21. Polysemantic Neurons • ⾞と猫の顔の共通点に応答しているわけではない • 特徴を視覚化すると、猫の⽬とひげ、⽑⽪で覆われた脚、⾞の光沢を探して いる様に⾒え、微妙な共有機能とは⾔えない • Circuitsの解析である程度推測できるが、組み合わせ問題的に⼤変 • 多意味ニューロンを「展開」するか、そもそも多意味性を⽰さ ないようにネットワークをトレーニングすることによって、多 意味ニューロンを解決できる可能性があるのでは?
  • 22. Claim 2: Circuits • ネットワーク内のすべてのニューロンは、前の層のニューロン とそれに続くReLUの線形結合から形成 • 両⽅のレイヤーの機能を理解できれば、それらの間のつながりも理解 できるのでは? • ネットワークの重み(Circutis・回路)を紐解けばアルゴリズムが 読み取ることが出来る • 調査したところ、対称性や綺麗な構造を発⾒できた
  • 23. Circuit 1: Curve Detectors • 曲線検出器は、弱い曲線検出器と線検出器から実装されている • 3Dジオメトリおよび複雑な形状の検出器を作成するために上位レイ ヤーで利⽤
  • 24. Circuit 1: Curve Detectors • 弱い曲線検出器が洗練された曲線検出器になる例 • 5x5の畳み込みを実装 • 正または負の場合がある • 重みをみることで、曲線検出器が以前の曲線検出器を使⽤して 「接線曲線」を探していることを意味すると考える事ができる
  • 25. Circuit 1: Curve Detectors • 同様の⽅向にある初期および完全曲線検出器のすべてのペアに 当てはまる • 正の重みで励起・負の重みで抑制
  • 26. Circuit 2: Oriented Dog Head Detection • 曲線検出回路は低レベルの回路、2つの層にのみまたがっている • 4つの層にまたがる⾼レベルの回路の例(⽝)を紹介 • ImageNetには100種類の⽝が存在 -> 専⽤ニューロンが多数存在
  • 27. Circuit 2: Oriented Dog Head Detection • 左向きと右向きの⽝の頭を処理するニューロンのコレクションが存在 • 3つのレイヤーにわたって、2つのミラー化された経路を維持 • 左右を向いている類似のユニットを検出 • 各ステップで、これらの経路は互いに抑制、コントラストを鮮明に • 最後に、両⽅の経路に応答する不変ニューロンを作成
  • 28. Circuit 2: Oriented Dog Head Detection • このパターンを「ケースの結合」と呼ぶ • ネットワークは2つのケース(左と右)を別々に検出し、それ らを結合して不変の「多⾯的」を作成 • 2つの経路が互いに抑制し合うため、この回路には実際には XORのような特性がある
  • 29. Circuit 2: Oriented Dog Head Detection • ニューロン間のすべての接続は畳み込みであるため、⼊⼒ ニューロンが次のニューロンを励起する場所を確認することで きる • 「頭と⾸」のユニットの例をみると、頭は正しい側でのみ検出 される
  • 30. Circuit 2: Oriented Dog Head Detection • ケースの結合の例 • 同時に頭部の2つの⽅向には応答せず、励起領域は、⽅向に応 じて中⼼から異なる⽅向に広がり、⿐が同じポイントに収束
  • 31. Circuit 3: Cars in Superposition • InceptionV1のmixed4cには⾞を検出するニューロンが存在 • 前レイヤーの機能(窓・⾞体・タイヤ)を組み合わせて⾞を検 出
  • 32. Circuit 3: Cars in Superposition • しかしながら、次の層では純粋な⾞の検出器を作成するのでは なく、他のものを検出するような機能になっている様に⾒える • ⾞検出の機能を⽝の検出器が活⽤?
  • 33. Circuit 3: Cars in Superposition • この回路は、多意味ニューロンが、ある意味で意図的であることを⽰唆 • ⾞や⽝を検出するプロセスが何らかの理由でモデルに深く絡み合っている? • 結果、多意味ニューロンを回避することが困難になっている? • => モデルに「純粋なニューロン」があり、それを他の機能と混ぜ合わせたとも⾔ える • この現象を重ね合わせ(superposition)と呼ぶ 重ね合わせによりニューロンが節約され、より重要なタスクを説いている のでは? という仮説 => ⾞と⽝が共起しなければ、後段で⽝の特徴のみを捉えられる?
  • 34. Circuit Motifs • InceptionV1にも同じ抽象的なパターンが⾒られた • 曲線検出にある同変(Equivarence)(回転不変、スケール不変など) • ⽝の頭部検出に⾒られるケース結合(Unioning over cases) • ⾞検出での重ね合わせ(superposition) • 回路を理解するには、モチーフを研究することが重要になる可能性が⾼いと 考えている
  • 35. Claim 3: Universality • NNで⾃然画像を学習すると、初期層にガボールフィルターが 現れることは広く受け⼊れられている事実 • 他の層にもこういった意味のある共通機能が現れるか?(普遍性) • 機能の普遍性(Universality)(または収束学習/convergent learning )は様々なNNが相関性の⾼いニューロンを学習でき ることが⽰されている[Li+ ICLR2016] • 更に隠れ層で類似の表現を学習するという先⾏研究も [Kornblith+, arXiv2019] • ⽑⽪のテクスチャ検出器と⽝の体の検出器の2つの機能は、重要な異な る機能であるにもかかわらず、⾼度に相関している
  • 36. Claim 3: Universality • 理想的には、いくつかの機能を特徴付け、それらの機能(相関 する機能だけでなく)が多くのモデルにわたって形成されてい ることを厳密に⽰したい • 次に、類似の回路が形成されることをさらに確⽴するために、 複数のモデルの複数の層にわたって類似の特徴を⾒つけ、各モ デル間に同じ重み構造が形成されることを⽰したい • -> 多⼤な時間を要するため⼗分に調査できておらず、まだ確か な根拠は⽰せない
  • 37. Claim 3: Universality • しかしながら様々なモデル(AlexNet、InceptionV1、 InceptionV3、ResNet等)をImageNet及びPlace365で学習さ せると同じような機能が形成されていることは確認でき、ゼロ から学習させても同じような機能が形成されることは確認済
  • 38. Claim 3: Universality • これらの結果から普遍性の仮説が正しい可能性は⾼いと考えている • しかしながら、⾒かけ上の普遍性に例外が否かはさらなる調査が必要 • 普遍性の仮説がNNで広く真実であることが判明した場合様々なメ リットが考えられる • 神経科学と深層学習の繋がりの理解など • 回路の研究という観点で普遍性は本当に必要なのか? • 最初の2つと⽐べると、特に仮説が成り⽴たなくても致命的ではない • 普遍性仮説は、回路研究のどの形式が理にかなっているのかを決定 する要因にはなる • モデル間での「視覚的特徴の周期表」の作成ができる • 誤りであれば、⼀つづつの社会的に重要なモデルに関して紐解くしかない
  • 39. Interpretability as a Natural Science • なんかいい感じに照らし合わせて理解を深められそうですね(略
  • 40. Closing Thoughts • 顕微鏡は新しい分野を拓くのに重要な科学機器! • 解釈可能性のコミュニティからの意⾒として、これらの研究に 対して、定性的すぎる且つ科学的でないという意⾒もあると考 えている • 顕微鏡と細胞⽣物学の教訓は、細胞の発⾒は定性的な研究結果 だったので、わんちゃん可能性あるっしょ!
  • 42.
  • 43. An Overview of Early Vision in InceptionV1 • 「ニューロングループ」分類されたInceptionV1の最初の5層の ガイド付きツアー
  • 44. An Overview of Early Vision in InceptionV1 • ⼊⼒に近い層は機能がシンプルでニューロンの数が少ない • 機能が普遍的である可能性が⾼く、異なるアーキテクチャとタスク間で同 じ機能と回路を形成する • -> 初期レイヤーの 1,056個のニューロンのみを検討することで理解を深め る • 全部⼿作業で多⼤な時間がかかるため絞っているが、意外と解析するには⼗分な数 だった、らしい
  • 45. Playing Cards with Neurons • かの有名なDmitri Mendeleevは、カードに各要素の詳細を書き、 それらを分類および整理するさまざまな⽅法を⾟抱強く試⾏錯 誤することで、周期表を発⾒したと、よく⾔われる • ニューロンファミリーでも同じようなことをすることで周期性 や規則性を発⾒できないか?という取り組み • ガボールフィルターや⾊コントラスト検出器が最初の層に現れる、な ど • これらを⼀般化できないか?
  • 46. Playing Cards with Neurons • この記事では、InceptionV1の最初の5層にあるユニットの ニューロンファミリーの分類についてNetDissect [Bau+, CVPR2017]の分類を参考に説明 • ニューロンを事前定義された機能のセットと相関させ、⾊、テクス チャ、オブジェクトなどのカテゴリにグループ化 • スケーラブルな反⾯、事前定義では真の機能を⾒逃す可能性もある⽋ 点もあるが、全部⾒るのは不可能なので⼀旦これで • 注意書き • ⼤まかな概要であり、カテゴリーの誤解も含まれる可能性もある • カテゴリの境界は曖昧なこともある
  • 47. Presentation of Neurons • Feature Visualizationの⼿法を活⽤して機能を可視化する • 可視化したもののグループに対して役割の名前を名付けている
  • 48. Presentation of Circuits • 回路の動作理解のために、前の層で最も強い重み(L2Norm)を持 つユニットとそれらの間の重みを可視化 • ニューロンの特徴の視覚化をクリックして、最も接続されている前 の層の50個のニューロンに対する重みを確認できる(URL参照) https://storage.googleapis.com/distill-circuits/inceptionv1-weight-explorer/mixed3a_175.html
  • 49. conv2d0 • 最初のconv layerは主に2種類の機能で構成 • カラーコントラスト検出器とガボールフィルター • ただし完璧ではなく、ノイジーである • BNやAdam普及前だったので、勾配がうまく到達していなかったと考えられる
  • 51. conv2d1 • ニューロンはconv2d0のユニットと同様のパターンに応答するが、位置と ⽅向の変化に対して不変 • Complex Gaborを形成:単純なGaborとは異なり、エッジの正確な位置や 明暗に対しては⽐較的不変 • 暗明の反転に関係なく同じパターンを検出する「相互ガボールフィルター」 -> “ケー ス結合”の初期の例
  • 58. Black & White Detectors • mixed3a以前の層では、⾊コントラスト検出器は、⻘と⻩⾊などの対⽐を ⾏っていた • この層以降はそれらを組み合わせて、⾊がある・ない場合と⽐較する⾊検 出器がよく⾒られるようになる • ⽩黒検出器もその⼀種 • ほとんどすべてが負であり、⾊がないことを検出 • NOT(color_feature_1 OR color_feature_2 OR ...)のようなイメージ
  • 59. Small Circle Detector • 前層の曲線と円検出器をつなぎ合わせることで、様々な⼩さな 円や⽬の検出器が形成される(conv2d2)
  • 60. Triangle Detectors • line (conv2d2) とshifted line (conv2d2)の組み合わせで三⾓形 が形成される • これらの三⾓形検出器は、マルチエッジ検出器または凸状の境 界を検出するため組み合わせて使⽤される事が多い
  • 62. Boundary detectors • ⾼低周波数検出器を活⽤して、⾊や頻度の変化のみを検出 • 私達が想像するような、単純な直線や曲線検出器の単なる反復組み合わせではない • => ⾼低周波数検出器が構築された経緯はここにある? • (最急降下法すごい)
  • 63. Curve-based Features • sophisticated curves、circles、 S-shapes、 spirals、 divots、 evolutesなどが形成される • 概念的に曲線検出器を下記のようにつなぎ合わせるものと考え ることができる
  • 64. Fur detectors • 指向性⽑⽪検出器 • Furの前駆体(mixed3a)をつなぎ合わせることによって実 装される
  • 67. Conclusion • InceptionV1の初期の視野に関する現在の理解の概要を説明 • ただしまだまだ多くの問題はオープンクエスチョン • ユニットの機能は潜在的であり本当に”特定の機能”と呼べるか? • 今後の記事では、曲線を⼿始めに機能を厳密に調査 • ⼈間の理解に役⽴つ可能性はあるが、最終的にはある程度恣意的な分 類法 • モデル間で同じ機能ファミリがどの程度形成されるのか?
  • 69.
  • 70. Curve Detectors • 曲線検出器の機能を果たしていそうなニューロンを様々な⽅法 で調査 • 実際に”曲線”のみに反応しているのかどうかを検証するために 、いくつかの解析⼿法を⽤いて検証 • この記事は、曲線検出器について深く掘り下げる3つの記事の 最初の部分 • 動作の確認 • ニューロンの構築過程 • モデル全体での普及率(共通率?)
  • 71. Curve Detectors • 特定のターゲットのみに反応しているのかどうかを検証すると いうのは難しい課題 • 解釈可能性コミュニティーが話題にするところ • ⽬検出器、頭部検出器、⾞検出器が⾒えるという報告もあるが • 実際には⽝の頭に関連する特殊なテクスチャの検出器であると結論付 けるものもある • ニューロンに意味があり、意味のある回路を形成したと仮定し、 ニューラルネットワークのエンジニアリングと解釈することで アプローチ
  • 72. A Simplified Story of Curve Neurons • 3bの曲線検出器である10個のニューロンを例に、どのように機 能するかについて簡単に説明
  • 73. A Simplified Story of Curve Neurons • 発⽕に⽅向性がある • 明るさ、テクスチャ、⾊などの⾒た⽬上の特性に対して不変
  • 74. A Simplified Story of Curve Neurons • 活性化を持ち、ImageNetの空間位置のわずか10%に応答して発⽕ • 通常は発⽕しても応答は弱い • 強く発⽕をする場合は、特徴の視覚化と同様の⽅向と曲率を持つ曲線に応答
  • 75. 曲線検出器の価値 • InceptionV1は、画像をカテゴリに分類するようにトレーニングされ ている • 最急降下法の最適解として曲線検出器が構築された • ⾃然画像の曲線を検出することは、古典的なコンピュータビジョン では困難 • InceptionV1は、5つの畳み込み層を使⽤して実装された、この問題に対する 柔軟で⼀般的なソリューションを学習している様に⾒える • ただし、何を主張すればニューロンが曲線を検出しているという か?は様々な意⾒がある • 経験的に曲線に対して発⽕していると⽰すのは簡単であるが、次の ような論争になる可能性のある主張がある
  • 76. A Simplified Story of Curve Neurons • Causality(因果関係) • 曲線と相関する刺激ではなく、曲線を真に検出する。「逆に実⾏すると」曲線が⽣ 成されるため、機能の視覚化と帰属の視覚化の実験によって因果関係が確⽴される と考えている。 • Generality(⼀般性) • 広範囲の半径に対してカバーしており、⾊・明暗・テクスチャなどの外⾒属性に対 して不変である。Syntheticな刺激に対してこれらの普遍性を⽰すことは説得⼒のあ る根拠であると考える。 • Purity(純度) • Curve Detectorは複数の意味を持ち合わせず⼆次的な機能がない。様々なActivation の⼤きさによるデータセットの例を分類し、可視化することで⼆次的な機能が稀で あることを⽰す。(次回の記事で深堀り) • Family • 曲線ニューロンは、曲線のすべての⽅向に集合的に広がる
  • 77. Feature Visualization • Feature Visualizationでは最適化を利⽤して、objectiveを最⼤ 化する⼊⼒を⾒つける • 特徴の可視化によって因果関係を⾒つけることに利⽤ • 注意深くみると⼩さな垂線があり、この線をcombingと呼ぶ (後に説明)
  • 78. Dataset Analysis • 3b:379にフォーカスしてデータセットに対する応答を⾒る (⼈⼒作業になるので) • データセット内でのActivationの分布を可視化することで Activationの発⽕の強さや頻度を研究 • 3b:379のPre-activationの平均値は-200 • ReLUのActivation後、約11%のデータセットに対して発⽕
  • 79. Dataset Analysis • この分布のさまざまな部分を定性的に理解するために、3b:379の値ごとに画像をランダムにサンプ リングしてキルト化(タイリング) • 最も強い活性化を引き起こす画像: ニューロンの特徴の視覚化に似た曲線 • 弱く正の活性化を引き起こす画像: 平坦すぎる、⽅向がずれている、その他の⽋陥がある不完全な曲線 • 0に近いPre-ReLU Activationを引き起こす画像: 直線または円弧のない画像になる傾向があり、⼀部の 画像は⽅向から約45度ずれた曲線 • 最も強い負の活性化を引き起こす画像: ニューロンの理想的な曲線から45度以上離れた⽅向の曲線
  • 80. Dataset Analysis • 画像のキルトは誤解を招く可能性もある • 画像のReceptive-fieldのトリミングに対するニューロンの活性化は単 ⼀の数値であるため、画像のどの部分がそれを引き起こしたのかを確 認することはできず、その結果疑似相関に騙される可能性もある • 例えば、3b:379を最も強く発⽕させる画像の多くは時計であるため、 ニューロンは曲線でなく時計を検出するものと考えることもいえる • 画像がニューロンを興奮する理由を確認するために、特徴の可 視化を利⽤して画像のニューロンへの帰属を可視化できる
  • 81. Visualizing Attribution • NNの帰属を明らかにする既存研究は多い • これらの⽅法はどのpixelもしくは以前のニューロンが発汗原因であるかを説 明しようとする • 線形の場合、⼀般的に帰属は同意されている • ニューロンのPre-activationとbias値はその前のニューロンの線形関 数であるため、⼀般的に合意された帰属⽅法を使⽤可能 • 特に3bの活性化前の値の曲線検出器は3aの線形関数であり、影響度合いの帰 属テンソルはActivationに重みをかけたもの • 可視化の際は下記の式を利⽤ • ポジティブネガティブ両⽅の反応を可視化(abs) • 実際にはAttributionの可視化をグレースケールでパラメーター化しより読み やすくしている。
  • 82. Visualizing Attribution • この実験は3aのすべてのニューロンを可視化するが、帰属は様々 な⽅法でCircuitsの研究に適⽤できる強⼒なツール • 各Activation Vectorはfamiliyが画像で⾒たものも⽰し、それが 3b:379にどれだけコントリビューションしたかを⽰している
  • 83. Human Comparison • データセット画像から情報を抽出するために、ニューロンの活性化⾃体を⾒ずに 画像を⼿作業で分類 • 著者の⼀⼈であるNickは⼿動で800枚以上の画像を4つのグループに分割し、ラ ベリング • 3b:379から⼀定数の画像を100binごとにランダムにサンプリング • Nickは画像のピクセルのみをみて下記のルーブリックによりアノテーション を⾏った(ニューロンのActivationやVisualizationは⾒ない) • 4種類のラベル • Curves: ニューロンの特徴の可視化と同等の⽅向の曲線の含まれる画像で、 曲線は画像の⼤部分を横切っている。 • Imperfect Curve: 上記に似ているが、少なくとも1つ⽋陥がある。例えば、 平坦すぎたり、円弧を遮る⾓度があったり、⽅向がずれていたり。 • Unrelated: 画像に曲線が含まれていない。 • Opposing Curve: 画像には、ニューロンの特徴の視覚化と45度以上異なる曲 線が含まれている。
  • 84. Human Comparison • アノテーションをしたあと、3b:379のactivationの⽐較を⾏った • Stackplotを⽤いることで、各ラベルが異なるActivationに分類され ることがわかった
  • 85. Human Comparison • しかしながら、下記の例のようなactivateされるがcurveに分類 されないようなイメージも多くあった • 可視化することでラベル付けのプロセスで⾒逃した曲線を発⾒ • こういったケースにおいては⼈間以上の性能を3b:379は持っているように感 じ取れる
  • 86. How important are different points on the activation spectrum? • チャートは⼿作業でラベリングされたものを⽐較することには 役⽴だつが、、、 • 3b:379は曲線に対してとても選択的であるように⾒えるが、 ニューロンが発⽕するケースは極稀 • 殆どの場合発⽕せず、発⽕したとしても反応は⾮常に微弱
  • 87. How important are different points on the activation spectrum? • ImageNetのexampleに対して、Activation Magunitudeの確率 密度を⾒る • 活性化マグニチュード当たり(x軸)の⽐率に分割 正直わからん
  • 88. How important are different points on the activation spectrum? • グラフより、ニューロンが強く発⽕するケースは稀 • 画像の中で明確な曲線はめったに起こらないので強い発⽕は稀 • 確率密度がニューロンの振る舞いについて考える正しい⽅かどう かというのは明らかではない • ケースの⼤部分はニューロンが発⽕しない • ラベル付のエラーと曲線の希少性が原因というということも考えられる
  • 89. How important are different points on the activation spectrum? • 代替⼿段として、期待値への寄与率x * p(x)を考える • 活性化値がニューロンの出⼒にどの程度影響するか、拡張ネットワー クの動作によって概算を与えると考えることができる
  • 90. How important are different points on the activation spectrum? • 期待値の寄与は、曲線と不完全な曲線が55%を形成 • これは、3b:379が曲線検出器であるという仮説と⼀致しているようみえる • 発⽕させる他の刺激はラベル付エラー及びノイズの多い画像がニューロン のmisfireと考えられる 多分ここの面積なぞのひょっこり Post-activationの平均寄与? それともマイナスも含む?
  • 91. How important are different points on the activation spectrum? • 実験結果から、3b:379は⼈間によるラベル付けの判断にほぼ対 応しているように⾒える • さらに画像の帰属ベクトルを可視化することで、発⽕する理由は 画像の曲線によるものであり、擬似相関ではないことが分かる • しかし、これらの実験は曲線ニューロンが曲線画像を検出という 主張には不⼗分 • 曲線画像がデータセットに含まれることはめったに無いため、曲線画像 を体系的に調査する必要あり 次の実験ではこの問題に直接焦点を当て、曲線ニューロンが妥当 な曲線画像空間にどう反応するかを研究
  • 92. Joint Tuning Curves • 同じ機能で⾓度違いのものを実際 に検出することを確認し、各ユ ニットが向きの変化にどの程度敏 感であるかを特徴づける実験 • 各ニューロンには、その優先⽅向 を囲むガウスのような隆起がある • 各ニューロンが発⽕を停⽌すると、 別のニューロンが発⽕を開始し、 曲線のすべての⽅向に広がる
  • 93. Joint Tuning Curves • Turing Curveは画像の摂動全体に 対するニューロンの活性化を測定 するのに役⽴つが、実⾏可能な摂 動の種類によって制限される • 次の実験では⼈⼯的な刺激をレン ダリングすることでより広範囲な 摂動を⾏う
  • 95. Synthetic Curves • 各ニューロンに対して適⽤ • アクティブな場所は標準偏差 の24倍の⼤きさ
  • 96. Why do we see wispy triangles? • 三⾓の形状は、曲線検出器が曲率の⾼い曲線のより広い範囲の ⽅向に応答することを⽰している • 曲率が⼤きければ⼤きいほど反応する⾓度を含んでいる • 直線には曲線の⽅向が含まれておらず、円にはすべての曲線の⽅向が 含まれていると考えると良い
  • 97. Why do we see wispy triangles? • ⽅向または曲率のわずかな変化がアクティベーションの劇的な 変化を引き起こす可能性があることを⽰している • 曲線検出器は繊細で堅牢ではないことを⽰している
  • 98. Why do we see wispy triangles? • たった2つの変数によって、ほとんど知覚できない摂動が明ら かになる • ⾼次元のピクセル空間に有害なエクスプロイトが含まれていることを ⽰しているのではないか? • 特有の敵対的攻撃を深く研究する研究の⽅向性も⾒えそう? • Circuits * 初期ビジョンの研究に向いている • 回路全体を⼊⼒に戻すことがしやすい • 回路の重要な部分を抽出して個別に研究できる • => ニューロンをより堅牢にする⽅法、モデル全体を敵対的な攻撃から 保護する⽅法の⼿がかりを与える可能性も⾒えてくる
  • 99. Dataset Analysis • 曲線形状の塗りつぶし、⾊の有無もテスト • 曲線検出器が照明や⾊などの視覚特性に対して不変であることを⽰唆
  • 100. Synthetic Angles • synthetic curveの実験とdataset analysisの両⽅によって、曲 線は⽅向に敏感だた曲線の半径に対して許容範囲が広いことが わかった • 曲線ではなく、実際には⽅向に関して多くの形状に応答すると考える 可能性がある • 次の実験では、合成曲線と同様に合成⾓度を変化させる
  • 102. Synthetic Angles • 2つの異なる線が曲線に近い⾓度だと最も強い反応を⽰す • 2本の線のうち、⽚⽅がニューロンの特徴の視覚化に⼀致する と反応する • 直線の半分が外側を向いているものは、活性化が弱い
  • 103. Synthetic Angles • 鋭利な⾓度から緩やかな⾓度へ変化させる • ⾓度が緩やかになるにつれて発⽕が強くなっている
  • 104. Synthetic Angles • この⼿法は、さまざまな曲線ニューロンが複数の刺激特性の変 化にどのように反応するかを確認するのに役⽴つ • しかしながら情報量が多くなりがち • => 次のセクションでは、よりコンパクトな⽅法(Radial Tuning Curve)を導⼊
  • 105. Radial Tuning Curve • 反応を平滑化 • 円に巻きつけて⾓度ごとに強 度を出す
  • 106. The Curve Families of InceptionV1 • Conv2d2 / 3a / 3b / 4a の4つの畳み込み層を⾒ていく
  • 107. conv2d2 • 同⼼曲線とコームエッジの2種類の曲線検出器が含まれている • 同⼼曲線は半径が⼤きくなるにつれて同じ⽅向にある複数の曲線を 選択する⼩さな曲線検出器 • 広範囲の半径を検出する3aおよび3bの曲線検出器に活⽤されていると考えら れている • コームエッジは⼤きな線から垂直に突き出ている複数の線を検出 • (円に対して垂直に直線が出ているもの) • 後の曲線検出器を構築し、コーミング効果の役割を果たす
  • 110. 3b • この記事で焦点を当てている曲線検出器 • エコーがなくなり、綺麗な活性化を⾏う • 上部に2つの⼤きな⾓度ギャップがあり、下部に⼩さなギャップがある • 2つの⽅向をカバーするdouble curve detectorの影響が1つ原因として考えられる
  • 112. 4a • Ex) 4a:406は2つの異なる⾓度に対して、⼆次的な動作を含む上 向きの曲線検出器に⾒える • ある⾓度から⾒たカップやフライパンの上部を検出 • 傾斜した3D円検出器とみなせる • => NNの解釈可能性がどう主観的に⾒えるかの良い例
  • 113. Repurposing Curve Detectors • ⼀例として曲線検出を調査したが、航空写真、⾃動運転⾞、医 学研究などの分野で曲線検出が重要 • 各ドメインにおいて曲線検出に関する古典的な幅広い⽂献が存在 • カーブニューロンファミリーを活⽤してこれらを検出するプロ トタイプを作成
  • 114. Repurposing Curve Detectors • 1つのタスクは曲線の抽出 • 視覚化により、線と曲線が明確に分離されて照らされ、視覚的なアーティ ファクトが少なくなる • ただし、強⼒なコーミング効果(曲線に対する垂直な線) • 回路を編集することで取り除くことができると考えている • 特にこのプロトタイプが既存⼿法より優れているわけではないが回路の活 ⽤の可能性を⽰した
  • 119. The Combing Phenomenon • 曲線に垂直な外内両⽅に現れている線 => コーミング(Combing) • コーミングはImageNetだけでなくPlaces365でトレーニングされ たモデルを含む、多くのモデルの曲線検出器で発⽣ • マカクザルの視野覚のV4領域にも現れることがわかっている
  • 120. The Combing Phenomenon • いくつかの仮説はあるが⽴証はされていない • 現代の社会にある曲線はホイールのスポークや時計のメモリなど 垂直な線が含まれていることが多い、という仮説が挙げられる • また、 ⽑⽪の検出に利⽤されているという仮説もある
  • 121. The Combing Phenomenon • 画像が単⼀の繰り返しテクスチャではなく、コントラストで囲 まれた強い線があるということを検出している可能性 • 接線に沿った平⾏線を弱く抑え込んでいる? • コーミングはカーブに固有のものではなく、直線にも現れてい る mixed3a
  • 122. Conclusion • 神経科学と⽐較してNNの解析は⽐較的容易! • カーブファミリーを理解するのに1週間かかると予測したが、数ヶ⽉かけて 関係性や構造を理解した • 合成刺激・回路編集によるニューロンの除去など多く新しい技術に 繋がりそう • OpenAI Microscope(https://microscope.openai.com/models)便利 • 特徴の視覚化は因果的⾏動の証拠を⽰し、データセットの例は ニューロンが実際に何に応答するかを⽰しているため、これらは集 合的にニューロンの機能についての証拠となる • たった10個のニューロンの解析では論⽂のトピックとしてすぎると 思っていたが、今では完全な調査をすると本1冊書けそうということ がわかった
  • 124.
  • 125. Equivariance in Neural Networks • NNの中には対象性のある機能(同じ機能だが回転・拡⼤縮 ⼩・反転・異なる⾊に対して反応するもの)が⾃然と形成され る • 同変(equivariance)と呼ぶ • ニューロンを切り替えることが⼊⼒を変換することと同義 • 同変は、システム⽣物学のモチーフに類似した⼀種の「回路モ チーフ(Circuit Motif)」と⾒なすことができる • この同変について具体的機能を例に解説 • 本記事ではImageNetで学習されたInceptionV1に焦点をあてる が、その他いくつかのモデルに関しても同変を確認できた
  • 126. Equivariant Features • Rotational Equivariance / 回転変換に対する同変 • 初期の視覚野で現れる • Ex) 曲線検出器、⾼低周波数検出器、線検出器
  • 127. Equivariant Features • Scale Equivariance /スケールに対する同変 • 初期の層に⼩さなものが、後の層に⼤きなものが現れる • Ex) 多種多様なスケールにわたる円検出器
  • 128. Equivariant Features • Hue Equivariance / ⾊相同変 • 異なる⾊相で同じ形を検出する • color center-surrounはその周囲の反対の⾊相検出 • InceptionV1では、7-8番⽬の層まで現れている
  • 129. Equivariant Features • Hue-Rotation Equivariance / ⾊相回転同変 • color contrast unitは⽚⽅づつの⾊相を検出 -> ⾊相と回転を検出 • ⾊相を180度回転させるとフィルタを180度回転させることと同義になる • 図の例では、⽅向は360度回転しているが、⾊相は180度しか回転してい ないことを⽰している
  • 130. Equivariant Features • Reflection Equivariance / 反射同変 • ネットワークの中間層に移動すると、回転した変化は⽬⽴たなくなる • ⼀⽅で⽔平⽅向に反転したペアが多く現れるようになる
  • 131. Equivariant Features • Miscellaneous Equivariance(その他) • ⽝の頭部検出器における⿐の短⻑ • 同じ機能における⼈間と⽝ • カメラの遠近法と同変のユニット(Places365)
  • 132. Equivariant Circuits • 同変の振る舞いは、NNの重みと回路の対称性を深く反映して いる • まずは回転不変(rotational invariant)の特徴から形成される回 転同変(rotational equivariant)の特徴に焦点を当てる • 「不変→同変」の場合は、最も単純な同変回路 • 次に「同変→不変」回路を⾒て、最後により複雑な「同変→同 変」回路を⾒ていく rotationally invariant rotationally equivariant
  • 133. Equivariant Circuits • High-Low Circuit (⾼低周波数検出器) • ⾼周波数因⼦と低周波数因⼦から構築 • 同変パターンを回路の回転により⽣成していることに注⽬
  • 134. Equivariant Circuits • Contrast→Center Circuit • 回転的に等変な特徴を活⽤し回転的に不変な特徴を構築 • 「同変(equivariant) →不変(invariant)」回路 • Equivarianceが形成されると、次の層でそれを活⽤したinvariance が構築されやすい傾向にある
  • 135. Equivariant Circuits • BW-Color Circuit • ⾊特徴と⽩黒特徴を使⽤して、⽩黒vsカラーの特徴を作成 • その特徴を利⽤して中央で⽩黒・周囲をカラーで検出するユニットを 作成
  • 136. Equivariant Circuits • Line→Circle/Divergence Circuit • 同変 -> 不変の例 • Complex Gabor Filterを組み合わせて円検出器・発散検出器を構築
  • 137. Equivariant Circuits • Curve→Circle/Evolute Circuit • 同変->不変 + スケール同変の例
  • 138. Equivariant Circuits • Human-Animal Circuit • ⽔平反転の例
  • 139. Equivariant Circuits • Invariant Dog Head Circuit • 左右の⽅向の頭部検出器が結合し、ポーズ不変の⽝の頭の検出器に
  • 140. “Equivariant→Equivariant” Circuits • 「不変(invariant)→同変(equivariant)」または「同変→不変」 を⾒てきた • 不変の⼊⼒ユニットまたは不変の出⼒ユニットを持っていた • 回転、反転、またはその他の⽅法で変換されるが、単⼀の特徴変換の み • 「同変→同変」回路はより複雑 • ⼊⼒機能と出⼒機能の両⽅が変換されるため、2つのユニット間の相対 的な関係を考慮する必要がある
  • 141. “Equivariant→Equivariant” Circuits • Hue→Hue Circuit • ⾊相同変中⼼周囲検出器を接続 する例 • ユニットは同じ⾊相を持つユ ニットによって励起され、わず かに異なる⾊相を持つユニット によって抑制される傾向がある • => より鮮明なユニットを形成
  • 142. “Equivariant→Equivariant” Circuits • Curve→Curve Circuit • 90度回転した4つの曲線検出器 • 各曲線は、同⽅向の曲線によっ て励起され、反対⽅向の曲線に よって抑制される • 同時に、重みの空間構造も回転
  • 143. “Equivariant→Equivariant” Circuits • Contrast→Line Circuit • 両側に異なる⾊がある場合、直 線検出器はより強く発⽕ • ⽅向が異なる逆は抑制 • 回転に関しては「同変→同変」 だが、⾊相に関しては「同変→ 不変」になっている
  • 144. Equivariant Architectures • 今まで⾒てきた“⾃然な同変”でなく”同変アーキテクチャ設計”に焦点を向ける • 「⾃然な」同変と「設計された」同変は深く関わっている • 例として、CNNの⼀層⽬に現れるテンプレート • 異なる位置、⽅向、スケールのガボールフィルターは何度学習しても現れる • 統計的効率の⼤幅な向上 • この現象に触発されて 単⼀のガボールフィルターを変換、回転、およびスケーリングさ れたスパースコーディングモデルを作成[Bergstra+, 2011] • 多くの論⽂がこの同変写像をニューラルネットワークの隠れ層やより幅広い種類の変換 に拡張
  • 145. Equivariant Architectures • CNNの2つの特徴間の重みが同じ相対位置にある場合、それらが同値になるようにすると 下記の式になる • ⼀般的な変換の下で同じ相対関係を持っている場合、2つのニューロン間の重みを等しく する
  • 146. Equivariant Architectures • 恣意的に同変を導⼊するとどうなるのか? • [Cohen+, ICML2016]を参考に ニューロンの半分を回転同変(16回転) • ImageNetでInceptionV1に⼤まかに同変モデルを学習 • =>調整していないため精度は悪いが、同変ファミリの類似体を学習し た
  • 147. Equivariant Architectures • 同変モデルに類似の特徴が存在==解釈可能性の予測の成功? • 同変NNアーキテクチャにおいて、どの機能が形成されるかを 予測することは重要であり、現象を正しく理解しているという 裏付けになる
  • 148. Conclusion • 同変にはNNの理解を単純化する優れた能⼒がある • NNの理解することは、プログラムをリバースエンジニアリングするよう なもの • 同変は、コード全体で繰り返される同じインライン関数を⾒つけるようなもの • しかし、⾃然な同変にはいくつかの制限がある • 同変ファミリーを⼿作業で⾒つける必要がありかなりの労⼒ • NNの機能と回路を理解しやすくするための同変アーキテクチャの可能性 • 将来的に、同変アーキテクチャは、NNの初期視覚を理解することで、複 雑さを軽減できるはず • おれたちの戦いはこれからだ!〜完〜