SlideShare a Scribd company logo
1 of 15
CVPR2017参加報告
(速報版・三日目)
2017.7.24(現地時間)
@a_hasimoto
このスライドについて
1. 本会議での発表の内容を
2. 印象に残ったものだけ
3. その時の印象と,あとでのreferenceをたどるために
メモしたものです.
9/18(月・祝),関西CVPRML勉強会にて,解説を予定.
→ https://twitter.com/kansaicvprml
私の理解が深まるので,勘違いの指摘や質問,リンクの紹介,そ
の他議論大歓迎.
三日目総評
• 今日は午前中だけ.
• 人が少ないことを見越したのか,Deep Learningではない研究(3D
visionやPhotometry,クラスタリングなど)がこの日に集められてい
る印象→ Organizerの悪意を若干,というか結構感じてしまう.
• Deep Learning関連でも,余り面白いものが少ない?
• Clusteringについては,Deep Learning旋風は吹き荒れていな
い.
• ただし,前提知識が無いとoralの長い発表でも数式を追えず,全然わ
からない(><)
• Subspace Clusteringばかり.まぁ,当然か.
• CNNの大域解への収束に関する面白い研究が一番印象に残った.
会議のBooklet無くしました(T T)
• 昨日までと違って,計画的に回れていません.
• ポスターに関してのメモ(手書きだった)なども残せていませ
ん(><)
• 昨日までの内容をこっちに残しておいて良かった.
夕方にCaffe2のmeetupイベントが有った
• 言ったら,宣伝ばかりで,実装してみよう,とかは無かった.
• 主な特徴
• PC間の通信の最適化→台数を増やしても効率が落ちにくい(90%程度を
保持)
• 専用のハードウェアは不要.安価なGPUをたくさんつなげて大量の
データを処理できる.
• 16bit浮動小数点数に対応(普通は32bit)→モデルサイズやメモリ消費
を効率化.binaryと違って,精度も維持できる!
• NvidiaのTensorRTも使ってね☆
• 学習済みのモデルをHWに合わせて最適化したりできる!
→組み込みの製品化に非常に役立つ!
Global Optimality in Neural Network
Training, Benjamin D. Haeffele, René Vidal
• みんな不思議に思ってる: なんでdeep learning 動くの?
• 局所解に落ちないの?
• 最適化と汎化とアーキテクチャ(ネットの構造)は互いに関係し
ているはず.
• ネットの構造で,最適化のしやすさ/しにくさってあるの?
• 大事なのは下記の3つだ,という論文.
• positive homogeneity: sigmoid layer以外は大体なんでも成り立つ.
• parallel subnetworks: まぁ,成り立つよね.
• Weight Decay: positive homogeneityとregularizationのそれぞれのス
ケール(詳細は図が無いと説明しにくい)が合っていないと良くない.
Compact Matrix Factorization With Dependent
Subspaces, Viktor Larsson, Carl Olsson Program
• rankベースのMF→missing dataに強い.SfMとかに重要.
• low-rank embedding が当たり前になってきた印象.
• matrixがpoint trajectoriesを含むとき.
• シーンが複雑であるほどrankが高くなる.
• 一方で,設定したrankが高すぎるとoverfitting
• 行列のrankを上手く決めることが大事.
• point trajectoriesは複数のsubspaceに分布する,と仮定.
• union-of-subspace(subspaceの分布するsubspaceみたいなも
の?)に対してもrankの拘束をいれるといい感じになる
• missing dataがない場合は普通にやった方が誤差が少ない???
• Compact matrix factorization
• overparametrizationを避けながらmissingデータに対処できる.
Age Progression/Regression by Conditional
Adversarial Autoencoder
Zhifei Zhang, Yang Song, Hairong Qi
• 従来手法は,Age groupに分けて,labelとして年齢を推定(回
帰でも良いと思うけれど)→ Group-wised learning.←これは
しない.
• Manifold Traversing
• 人の顔の経年変化を学習して,任意の顔について経年変化を
GANで生成させる.
• 年齢推定は下記の手順?詳細は発表やポスターでは不明
1. 推定対象人物の各年代として予測される顔を生成
2. 入力に一番近い顔を選ぶ.
• 人毎の経年変化のしかたの違いがモデルに組み込まれている
→従来より良い.
• 印象としては問題の難しさに対してオーバーキル…
On the Global Geometry of Sphere-Constrained
Sparse Blind Deconvolution
Yuqian Zhang et al.
• 顕微鏡画像とかでは特にdeblurは重要.
• The activation signals are sparse (細胞とかエッジとかそうい
うの(?) )
• motion blurではなく,ボケですね.
• symmetric solution creates a local optima
• 議論から落ちた…わかりません….
Probabilistic Temporal Subspace Clustering,
Behnam Gholami, Vladimir Pavlovic Clustering Time Series Data
• Subspace Clustering: 同じsubspaceに属する→同じクラスタ
• Time Dependency: ガウス分布
• Number of Subspaces: stick-breaking process
• Dimensionality: Beta-Bernoulli Process
• Missing data: Marginalization
• 肝心な部分を聴き逃しました…,むぅ.集中力が落ちてきています.
• Mocap Datasetで実験
• Missing Dataに対しても良いパフォーマンス.
Provable Self-Representation Based Outlier
Detection in a Union of Subspaces,
Chong You, Daniel P. Robinson, René Vidal
• 同じくSubspace クラスタリング.
• Outlierが面倒くさい.
• outlierを一つのsubspaceに押し込める!←あれ??
• Computer self-representation
• inlierは顔,outliersは顔以外
• 多分,問題として簡単すぎるので,査読がちょっとゆるくない?
# 自分はoutlier detection + クラスタ数推定で,これより上手く動き
そうなのに落とされたので不満がある….
• random walkで,ぐるぐる廻れるならinlier
• outlierでもinlierに近ければグルグル回れそうなのだが,詳細不明.
Learning to Extract Semantic Structure From
Documents Using Multimodal Fully
Convolutional Neural Networks Xiao Yang et al.
• 文書画像をブロックや見出しなどの領域に分ける.
• Text Embedding Mapというものを作成し,最終層(FC)の前に
追加.
• 一方で,手前の方で分岐しておいて,元の画像を復元するよう
に学習(←predictの時は使わない)
• 実装自体は,論文の図を見れば一発でわかる.
FFTLasso: Large-Scale LASSO in the Fourier
Domain
Adel Bibi, Hani Itani, Bernard Ghanem
• L1正則化の計算
• 提案手法は計算時間が早い
• 計算量的には O(m^3)→O(mnlog m)
• m^2 > n log m なら早い.正方行列はこれを満たす.n^2>n log n?
• 計算量の理論値に対して,実験結果から得られる,実際の速度
の改善幅が小さいようにも見える.
• コード: https://github.com/adelbibi/FFTLasso
ポスターまで記述するのは力尽きました
• 希望があれば関西CVPRML勉強会で解説.
• 良く見て聴いてきたリスト(面白いと思ったもののみ掲載)
• Deeply Supervised Salient Object Detection with Short Connections, Qibin Hou, Ming-
Ming Cheng, Xiaowei Hu, Ali Borji, Zhuowen Tu, Philip Torr
• 抽象度の高い層のfeature mapを浅い層のfeature mapにくっつけて(short connections),各層でsaliency
mapを作成し,それらのmapをlinear sumすると良い結果を得られるらしい.
• 抽象度が高すぎると物体のディテールが失われる?,ということだと思う.
• それぞれの層の寄与度がよくわからないから,本当にそれが利いているのかポスターからも,質問しても,
よくわからなかった.
• Learning Cross-Modal Deep Representations for Robust Pedestrian Detection, Dan Xu,
Wanli Ouyang, Elisa Ricci, Xiaogang Wang, Nicu Sebe
• 可視光画像と温度画像のデータを相互に利用して,それぞれのセンサが苦手なところを,補うような学習
ができる→RGB画像のみでの精度があがる.
• Annotating Object Instances with a Polygon-RNN, Lluís Castrejón, Kaustav Kundu, Raquel
Urtasun, Sanja Fidler [Best Paper Honorable Mention Awards]
• 詳細な領域形状のアノテーションを楽にするために,物体を囲むPolygonの編集点をRNNで出力するような学習を行った
• 人間がacceptableなレベル(どうやって決めた??)まで精度が出た
続き
• 希望があれば関西CVPRML勉強会で解説
• 良く見て聴いてきたリスト(面白いと思ったもののみ掲載)
• Online Graph Completion: Multivariate Signal Recovery in Computer Vision, Won Hwa Kim,
Mona Jalal, Seongjae Hwang, Sterling C. Johnson, Vikas Singh
• グラフ信号処理を利用しているように思える.
• 点群の欠損を上手く保管しているみたい.
• やはり,グラフ信号処理の勉強が足りない….
• A Message Passing Algorithm for the Minimum Cost Multicut Problem, Paul Swoboda,
Bjoern Andres
• 普通のgraph cutはグラフを2つにしか分けられない.multicut(3つ以上に分ける)はNP-hard
• 近似非(lower bound)などの詳細がポスターにはなかったが,linearで動くらしい.
• Depth from Defocus in the Wild, Huixuan Tang, Scott Cohen, Brian Price, Stephen Schiller,
Kiriakos N. Kutulakos
• 手法の詳細は不明だが,CNN使ってない!?しかし,かなり出来ていそうだった.スマホ画像に対して動作さ
せていた模様.一見すると,そこまでdefocusが目立つようには見えない画像.

More Related Content

What's hot

ThemeStudy ― CHI2017-2018分析 + CHI2018速報
ThemeStudy ― CHI2017-2018分析 + CHI2018速報ThemeStudy ― CHI2017-2018分析 + CHI2018速報
ThemeStudy ― CHI2017-2018分析 + CHI2018速報cvpaper. challenge
 
CVPR2018 参加報告(速報版)2日目
CVPR2018 参加報告(速報版)2日目CVPR2018 参加報告(速報版)2日目
CVPR2018 参加報告(速報版)2日目Atsushi Hashimoto
 
オトナのプログラミング勉強会 オトナのDeep Learning 2016-11
オトナのプログラミング勉強会 オトナのDeep Learning 2016-11オトナのプログラミング勉強会 オトナのDeep Learning 2016-11
オトナのプログラミング勉強会 オトナのDeep Learning 2016-11Katsuhiro Morishita
 
High-impact Papers in Computer Vision: 歴史を変えた/トレンドを創る論文
High-impact Papers in Computer Vision: 歴史を変えた/トレンドを創る論文High-impact Papers in Computer Vision: 歴史を変えた/トレンドを創る論文
High-impact Papers in Computer Vision: 歴史を変えた/トレンドを創る論文cvpaper. challenge
 
捗るリコメンドシステムの裏事情(ハッカドール)
捗るリコメンドシステムの裏事情(ハッカドール)捗るリコメンドシステムの裏事情(ハッカドール)
捗るリコメンドシステムの裏事情(ハッカドール)mosa siru
 
卒論執筆・スライド作成のポイント
卒論執筆・スライド作成のポイント卒論執筆・スライド作成のポイント
卒論執筆・スライド作成のポイントTsubasa Hirakawa
 
【CVPR 2020 メタサーベイ】Vision & Other Modalities
【CVPR 2020 メタサーベイ】Vision & Other Modalities【CVPR 2020 メタサーベイ】Vision & Other Modalities
【CVPR 2020 メタサーベイ】Vision & Other Modalitiescvpaper. challenge
 
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有Naoaki Okazaki
 
コンピュータビジョン分野メジャー国際会議 Award までの道のり
コンピュータビジョン分野メジャー国際会議 Award までの道のりコンピュータビジョン分野メジャー国際会議 Award までの道のり
コンピュータビジョン分野メジャー国際会議 Award までの道のりcvpaper. challenge
 
画像認識 6.3-6.6 畳込みニューラル ネットワーク
画像認識 6.3-6.6 畳込みニューラルネットワーク画像認識 6.3-6.6 畳込みニューラルネットワーク
画像認識 6.3-6.6 畳込みニューラル ネットワークShion Honda
 
ECCV2020 オーラル論文完全読破 (2/2)
ECCV2020 オーラル論文完全読破 (2/2) ECCV2020 オーラル論文完全読破 (2/2)
ECCV2020 オーラル論文完全読破 (2/2) cvpaper. challenge
 
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」 [最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」 Yuki Arase
 
NeurIPS2021読み会 Fairness in Ranking under Uncertainty
NeurIPS2021読み会 Fairness in Ranking under UncertaintyNeurIPS2021読み会 Fairness in Ranking under Uncertainty
NeurIPS2021読み会 Fairness in Ranking under UncertaintyTatsuya Shirakawa
 

What's hot (16)

ThemeStudy ― CHI2017-2018分析 + CHI2018速報
ThemeStudy ― CHI2017-2018分析 + CHI2018速報ThemeStudy ― CHI2017-2018分析 + CHI2018速報
ThemeStudy ― CHI2017-2018分析 + CHI2018速報
 
CVPR2018 参加報告(速報版)2日目
CVPR2018 参加報告(速報版)2日目CVPR2018 参加報告(速報版)2日目
CVPR2018 参加報告(速報版)2日目
 
cvpaper.challengeについて
cvpaper.challengeについてcvpaper.challengeについて
cvpaper.challengeについて
 
オトナのプログラミング勉強会 オトナのDeep Learning 2016-11
オトナのプログラミング勉強会 オトナのDeep Learning 2016-11オトナのプログラミング勉強会 オトナのDeep Learning 2016-11
オトナのプログラミング勉強会 オトナのDeep Learning 2016-11
 
CVPR 2017 報告
CVPR 2017 報告CVPR 2017 報告
CVPR 2017 報告
 
High-impact Papers in Computer Vision: 歴史を変えた/トレンドを創る論文
High-impact Papers in Computer Vision: 歴史を変えた/トレンドを創る論文High-impact Papers in Computer Vision: 歴史を変えた/トレンドを創る論文
High-impact Papers in Computer Vision: 歴史を変えた/トレンドを創る論文
 
捗るリコメンドシステムの裏事情(ハッカドール)
捗るリコメンドシステムの裏事情(ハッカドール)捗るリコメンドシステムの裏事情(ハッカドール)
捗るリコメンドシステムの裏事情(ハッカドール)
 
卒論執筆・スライド作成のポイント
卒論執筆・スライド作成のポイント卒論執筆・スライド作成のポイント
卒論執筆・スライド作成のポイント
 
【CVPR 2020 メタサーベイ】Vision & Other Modalities
【CVPR 2020 メタサーベイ】Vision & Other Modalities【CVPR 2020 メタサーベイ】Vision & Other Modalities
【CVPR 2020 メタサーベイ】Vision & Other Modalities
 
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有
 
コンピュータビジョン分野メジャー国際会議 Award までの道のり
コンピュータビジョン分野メジャー国際会議 Award までの道のりコンピュータビジョン分野メジャー国際会議 Award までの道のり
コンピュータビジョン分野メジャー国際会議 Award までの道のり
 
画像認識 6.3-6.6 畳込みニューラル ネットワーク
画像認識 6.3-6.6 畳込みニューラルネットワーク画像認識 6.3-6.6 畳込みニューラルネットワーク
画像認識 6.3-6.6 畳込みニューラル ネットワーク
 
ECCV2020 オーラル論文完全読破 (2/2)
ECCV2020 オーラル論文完全読破 (2/2) ECCV2020 オーラル論文完全読破 (2/2)
ECCV2020 オーラル論文完全読破 (2/2)
 
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」 [最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
 
CVPR 2019 速報
CVPR 2019 速報CVPR 2019 速報
CVPR 2019 速報
 
NeurIPS2021読み会 Fairness in Ranking under Uncertainty
NeurIPS2021読み会 Fairness in Ranking under UncertaintyNeurIPS2021読み会 Fairness in Ranking under Uncertainty
NeurIPS2021読み会 Fairness in Ranking under Uncertainty
 

Similar to CVPR2017 参加報告 速報版 本会議3日目

ぼくとしりとりの約3.0*10^3日間戦争
ぼくとしりとりの約3.0*10^3日間戦争ぼくとしりとりの約3.0*10^3日間戦争
ぼくとしりとりの約3.0*10^3日間戦争Eric Sartre
 
内職がいらないくらいわかりやすいディープラーニング
内職がいらないくらいわかりやすいディープラーニング内職がいらないくらいわかりやすいディープラーニング
内職がいらないくらいわかりやすいディープラーニングKo Kikuta
 
ビジョンとロボットの強化学習
ビジョンとロボットの強化学習ビジョンとロボットの強化学習
ビジョンとロボットの強化学習Yasunori Ozaki
 
Deep learningの入り口
Deep learningの入り口Deep learningの入り口
Deep learningの入り口ikasumi
 
人工知能技術の現状-今後の見通し-社会へのインパクト-岡夏樹
人工知能技術の現状-今後の見通し-社会へのインパクト-岡夏樹人工知能技術の現状-今後の見通し-社会へのインパクト-岡夏樹
人工知能技術の現状-今後の見通し-社会へのインパクト-岡夏樹KIT Cognitive Interaction Design
 
モジュールの凝集度・結合度・インタフェース
モジュールの凝集度・結合度・インタフェースモジュールの凝集度・結合度・インタフェース
モジュールの凝集度・結合度・インタフェースHajime Yanagawa
 
Hello deeplearning!
Hello deeplearning!Hello deeplearning!
Hello deeplearning!T2C_
 
Machine Learning, Deep Learning how to use in civic tehnology
Machine Learning, Deep Learning how to use in civic tehnologyMachine Learning, Deep Learning how to use in civic tehnology
Machine Learning, Deep Learning how to use in civic tehnologyKaz Furukawa
 
とある Perl Monger の働き方
とある Perl Monger の働き方とある Perl Monger の働き方
とある Perl Monger の働き方Yusuke Wada
 
20180824 DLLab推論ナイト_深層学習モデル推論ライブラリ「Menoh」の紹介/Python以外でDeepLearning
20180824 DLLab推論ナイト_深層学習モデル推論ライブラリ「Menoh」の紹介/Python以外でDeepLearning20180824 DLLab推論ナイト_深層学習モデル推論ライブラリ「Menoh」の紹介/Python以外でDeepLearning
20180824 DLLab推論ナイト_深層学習モデル推論ライブラリ「Menoh」の紹介/Python以外でDeepLearningPreferred Networks
 
20100619 wakhok important_of_io_with_jror
20100619 wakhok important_of_io_with_jror20100619 wakhok important_of_io_with_jror
20100619 wakhok important_of_io_with_jrorYoshiharu Hashimoto
 
C#マスコット(公開用)
C#マスコット(公開用)C#マスコット(公開用)
C#マスコット(公開用)信之 岩永
 
CNNの可視化手法Grad-CAMの紹介~CNNさん、あなたはどこを見ているの?~ | OHS勉強会#6
CNNの可視化手法Grad-CAMの紹介~CNNさん、あなたはどこを見ているの?~ | OHS勉強会#6CNNの可視化手法Grad-CAMの紹介~CNNさん、あなたはどこを見ているの?~ | OHS勉強会#6
CNNの可視化手法Grad-CAMの紹介~CNNさん、あなたはどこを見ているの?~ | OHS勉強会#6Toshinori Hanya
 
Centerlossを読んでみた_20170618@abeja
Centerlossを読んでみた_20170618@abejaCenterlossを読んでみた_20170618@abeja
Centerlossを読んでみた_20170618@abejaYumaMatsuoka
 
2014/5/29 東大相澤山崎研勉強会:パターン認識とニューラルネットワーク,Deep Learningまで
2014/5/29 東大相澤山崎研勉強会:パターン認識とニューラルネットワーク,Deep Learningまで2014/5/29 東大相澤山崎研勉強会:パターン認識とニューラルネットワーク,Deep Learningまで
2014/5/29 東大相澤山崎研勉強会:パターン認識とニューラルネットワーク,Deep LearningまでHokuto Kagaya
 
困らない程度のJDK入門
困らない程度のJDK入門困らない程度のJDK入門
困らない程度のJDK入門Yohei Oda
 
opensource and accessibility (Dec2000) Part 2
opensource and accessibility (Dec2000) Part 2opensource and accessibility (Dec2000) Part 2
opensource and accessibility (Dec2000) Part 2Takuya Nishimoto
 
「デザイニング・インターフェース」勉強会 - 第7章
「デザイニング・インターフェース」勉強会 - 第7章「デザイニング・インターフェース」勉強会 - 第7章
「デザイニング・インターフェース」勉強会 - 第7章Tsutomu Kawamura
 

Similar to CVPR2017 参加報告 速報版 本会議3日目 (20)

ぼくとしりとりの約3.0*10^3日間戦争
ぼくとしりとりの約3.0*10^3日間戦争ぼくとしりとりの約3.0*10^3日間戦争
ぼくとしりとりの約3.0*10^3日間戦争
 
Eccv2018 report day3
Eccv2018 report day3Eccv2018 report day3
Eccv2018 report day3
 
内職がいらないくらいわかりやすいディープラーニング
内職がいらないくらいわかりやすいディープラーニング内職がいらないくらいわかりやすいディープラーニング
内職がいらないくらいわかりやすいディープラーニング
 
ビジョンとロボットの強化学習
ビジョンとロボットの強化学習ビジョンとロボットの強化学習
ビジョンとロボットの強化学習
 
Eccv2018 report day2
Eccv2018 report day2Eccv2018 report day2
Eccv2018 report day2
 
Deep learningの入り口
Deep learningの入り口Deep learningの入り口
Deep learningの入り口
 
人工知能技術の現状-今後の見通し-社会へのインパクト-岡夏樹
人工知能技術の現状-今後の見通し-社会へのインパクト-岡夏樹人工知能技術の現状-今後の見通し-社会へのインパクト-岡夏樹
人工知能技術の現状-今後の見通し-社会へのインパクト-岡夏樹
 
モジュールの凝集度・結合度・インタフェース
モジュールの凝集度・結合度・インタフェースモジュールの凝集度・結合度・インタフェース
モジュールの凝集度・結合度・インタフェース
 
Hello deeplearning!
Hello deeplearning!Hello deeplearning!
Hello deeplearning!
 
Machine Learning, Deep Learning how to use in civic tehnology
Machine Learning, Deep Learning how to use in civic tehnologyMachine Learning, Deep Learning how to use in civic tehnology
Machine Learning, Deep Learning how to use in civic tehnology
 
とある Perl Monger の働き方
とある Perl Monger の働き方とある Perl Monger の働き方
とある Perl Monger の働き方
 
20180824 DLLab推論ナイト_深層学習モデル推論ライブラリ「Menoh」の紹介/Python以外でDeepLearning
20180824 DLLab推論ナイト_深層学習モデル推論ライブラリ「Menoh」の紹介/Python以外でDeepLearning20180824 DLLab推論ナイト_深層学習モデル推論ライブラリ「Menoh」の紹介/Python以外でDeepLearning
20180824 DLLab推論ナイト_深層学習モデル推論ライブラリ「Menoh」の紹介/Python以外でDeepLearning
 
20100619 wakhok important_of_io_with_jror
20100619 wakhok important_of_io_with_jror20100619 wakhok important_of_io_with_jror
20100619 wakhok important_of_io_with_jror
 
C#マスコット(公開用)
C#マスコット(公開用)C#マスコット(公開用)
C#マスコット(公開用)
 
CNNの可視化手法Grad-CAMの紹介~CNNさん、あなたはどこを見ているの?~ | OHS勉強会#6
CNNの可視化手法Grad-CAMの紹介~CNNさん、あなたはどこを見ているの?~ | OHS勉強会#6CNNの可視化手法Grad-CAMの紹介~CNNさん、あなたはどこを見ているの?~ | OHS勉強会#6
CNNの可視化手法Grad-CAMの紹介~CNNさん、あなたはどこを見ているの?~ | OHS勉強会#6
 
Centerlossを読んでみた_20170618@abeja
Centerlossを読んでみた_20170618@abejaCenterlossを読んでみた_20170618@abeja
Centerlossを読んでみた_20170618@abeja
 
2014/5/29 東大相澤山崎研勉強会:パターン認識とニューラルネットワーク,Deep Learningまで
2014/5/29 東大相澤山崎研勉強会:パターン認識とニューラルネットワーク,Deep Learningまで2014/5/29 東大相澤山崎研勉強会:パターン認識とニューラルネットワーク,Deep Learningまで
2014/5/29 東大相澤山崎研勉強会:パターン認識とニューラルネットワーク,Deep Learningまで
 
困らない程度のJDK入門
困らない程度のJDK入門困らない程度のJDK入門
困らない程度のJDK入門
 
opensource and accessibility (Dec2000) Part 2
opensource and accessibility (Dec2000) Part 2opensource and accessibility (Dec2000) Part 2
opensource and accessibility (Dec2000) Part 2
 
「デザイニング・インターフェース」勉強会 - 第7章
「デザイニング・インターフェース」勉強会 - 第7章「デザイニング・インターフェース」勉強会 - 第7章
「デザイニング・インターフェース」勉強会 - 第7章
 

More from Atsushi Hashimoto

人の行動をモデル化して予測する -調理作業支援を題材とした行動予測と情報提示-
人の行動をモデル化して予測する -調理作業支援を題材とした行動予測と情報提示- 人の行動をモデル化して予測する -調理作業支援を題材とした行動予測と情報提示-
人の行動をモデル化して予測する -調理作業支援を題材とした行動予測と情報提示- Atsushi Hashimoto
 
ECCV2018参加速報(一日目)
ECCV2018参加速報(一日目)ECCV2018参加速報(一日目)
ECCV2018参加速報(一日目)Atsushi Hashimoto
 
PRMU GC第二期 無形概念認識
PRMU GC第二期 無形概念認識PRMU GC第二期 無形概念認識
PRMU GC第二期 無形概念認識Atsushi Hashimoto
 
Kusk Object Dataset: Recording Access to Objects in Food Preparation
Kusk Object Dataset: Recording Access to Objects in Food PreparationKusk Object Dataset: Recording Access to Objects in Food Preparation
Kusk Object Dataset: Recording Access to Objects in Food PreparationAtsushi Hashimoto
 
人工知能研究振興財団研究助成に対する成果報告
人工知能研究振興財団研究助成に対する成果報告人工知能研究振興財団研究助成に対する成果報告
人工知能研究振興財団研究助成に対する成果報告Atsushi Hashimoto
 
春の情報処理祭り 2015 [リクルートx情報処理学会] CVIM 橋本
春の情報処理祭り 2015 [リクルートx情報処理学会] CVIM 橋本春の情報処理祭り 2015 [リクルートx情報処理学会] CVIM 橋本
春の情報処理祭り 2015 [リクルートx情報処理学会] CVIM 橋本Atsushi Hashimoto
 

More from Atsushi Hashimoto (8)

Ocha 20191204
Ocha 20191204Ocha 20191204
Ocha 20191204
 
人の行動をモデル化して予測する -調理作業支援を題材とした行動予測と情報提示-
人の行動をモデル化して予測する -調理作業支援を題材とした行動予測と情報提示- 人の行動をモデル化して予測する -調理作業支援を題材とした行動予測と情報提示-
人の行動をモデル化して予測する -調理作業支援を題材とした行動予測と情報提示-
 
Eccv2018 report day4
Eccv2018 report day4Eccv2018 report day4
Eccv2018 report day4
 
ECCV2018参加速報(一日目)
ECCV2018参加速報(一日目)ECCV2018参加速報(一日目)
ECCV2018参加速報(一日目)
 
PRMU GC第二期 無形概念認識
PRMU GC第二期 無形概念認識PRMU GC第二期 無形概念認識
PRMU GC第二期 無形概念認識
 
Kusk Object Dataset: Recording Access to Objects in Food Preparation
Kusk Object Dataset: Recording Access to Objects in Food PreparationKusk Object Dataset: Recording Access to Objects in Food Preparation
Kusk Object Dataset: Recording Access to Objects in Food Preparation
 
人工知能研究振興財団研究助成に対する成果報告
人工知能研究振興財団研究助成に対する成果報告人工知能研究振興財団研究助成に対する成果報告
人工知能研究振興財団研究助成に対する成果報告
 
春の情報処理祭り 2015 [リクルートx情報処理学会] CVIM 橋本
春の情報処理祭り 2015 [リクルートx情報処理学会] CVIM 橋本春の情報処理祭り 2015 [リクルートx情報処理学会] CVIM 橋本
春の情報処理祭り 2015 [リクルートx情報処理学会] CVIM 橋本
 

Recently uploaded

SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略Ryo Sasaki
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムsugiuralab
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Danieldanielhu54
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 

Recently uploaded (10)

SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 

CVPR2017 参加報告 速報版 本会議3日目

  • 2. このスライドについて 1. 本会議での発表の内容を 2. 印象に残ったものだけ 3. その時の印象と,あとでのreferenceをたどるために メモしたものです. 9/18(月・祝),関西CVPRML勉強会にて,解説を予定. → https://twitter.com/kansaicvprml 私の理解が深まるので,勘違いの指摘や質問,リンクの紹介,そ の他議論大歓迎.
  • 3. 三日目総評 • 今日は午前中だけ. • 人が少ないことを見越したのか,Deep Learningではない研究(3D visionやPhotometry,クラスタリングなど)がこの日に集められてい る印象→ Organizerの悪意を若干,というか結構感じてしまう. • Deep Learning関連でも,余り面白いものが少ない? • Clusteringについては,Deep Learning旋風は吹き荒れていな い. • ただし,前提知識が無いとoralの長い発表でも数式を追えず,全然わ からない(><) • Subspace Clusteringばかり.まぁ,当然か. • CNNの大域解への収束に関する面白い研究が一番印象に残った.
  • 4. 会議のBooklet無くしました(T T) • 昨日までと違って,計画的に回れていません. • ポスターに関してのメモ(手書きだった)なども残せていませ ん(><) • 昨日までの内容をこっちに残しておいて良かった.
  • 5. 夕方にCaffe2のmeetupイベントが有った • 言ったら,宣伝ばかりで,実装してみよう,とかは無かった. • 主な特徴 • PC間の通信の最適化→台数を増やしても効率が落ちにくい(90%程度を 保持) • 専用のハードウェアは不要.安価なGPUをたくさんつなげて大量の データを処理できる. • 16bit浮動小数点数に対応(普通は32bit)→モデルサイズやメモリ消費 を効率化.binaryと違って,精度も維持できる! • NvidiaのTensorRTも使ってね☆ • 学習済みのモデルをHWに合わせて最適化したりできる! →組み込みの製品化に非常に役立つ!
  • 6. Global Optimality in Neural Network Training, Benjamin D. Haeffele, René Vidal • みんな不思議に思ってる: なんでdeep learning 動くの? • 局所解に落ちないの? • 最適化と汎化とアーキテクチャ(ネットの構造)は互いに関係し ているはず. • ネットの構造で,最適化のしやすさ/しにくさってあるの? • 大事なのは下記の3つだ,という論文. • positive homogeneity: sigmoid layer以外は大体なんでも成り立つ. • parallel subnetworks: まぁ,成り立つよね. • Weight Decay: positive homogeneityとregularizationのそれぞれのス ケール(詳細は図が無いと説明しにくい)が合っていないと良くない.
  • 7. Compact Matrix Factorization With Dependent Subspaces, Viktor Larsson, Carl Olsson Program • rankベースのMF→missing dataに強い.SfMとかに重要. • low-rank embedding が当たり前になってきた印象. • matrixがpoint trajectoriesを含むとき. • シーンが複雑であるほどrankが高くなる. • 一方で,設定したrankが高すぎるとoverfitting • 行列のrankを上手く決めることが大事. • point trajectoriesは複数のsubspaceに分布する,と仮定. • union-of-subspace(subspaceの分布するsubspaceみたいなも の?)に対してもrankの拘束をいれるといい感じになる • missing dataがない場合は普通にやった方が誤差が少ない??? • Compact matrix factorization • overparametrizationを避けながらmissingデータに対処できる.
  • 8. Age Progression/Regression by Conditional Adversarial Autoencoder Zhifei Zhang, Yang Song, Hairong Qi • 従来手法は,Age groupに分けて,labelとして年齢を推定(回 帰でも良いと思うけれど)→ Group-wised learning.←これは しない. • Manifold Traversing • 人の顔の経年変化を学習して,任意の顔について経年変化を GANで生成させる. • 年齢推定は下記の手順?詳細は発表やポスターでは不明 1. 推定対象人物の各年代として予測される顔を生成 2. 入力に一番近い顔を選ぶ. • 人毎の経年変化のしかたの違いがモデルに組み込まれている →従来より良い. • 印象としては問題の難しさに対してオーバーキル…
  • 9. On the Global Geometry of Sphere-Constrained Sparse Blind Deconvolution Yuqian Zhang et al. • 顕微鏡画像とかでは特にdeblurは重要. • The activation signals are sparse (細胞とかエッジとかそうい うの(?) ) • motion blurではなく,ボケですね. • symmetric solution creates a local optima • 議論から落ちた…わかりません….
  • 10. Probabilistic Temporal Subspace Clustering, Behnam Gholami, Vladimir Pavlovic Clustering Time Series Data • Subspace Clustering: 同じsubspaceに属する→同じクラスタ • Time Dependency: ガウス分布 • Number of Subspaces: stick-breaking process • Dimensionality: Beta-Bernoulli Process • Missing data: Marginalization • 肝心な部分を聴き逃しました…,むぅ.集中力が落ちてきています. • Mocap Datasetで実験 • Missing Dataに対しても良いパフォーマンス.
  • 11. Provable Self-Representation Based Outlier Detection in a Union of Subspaces, Chong You, Daniel P. Robinson, René Vidal • 同じくSubspace クラスタリング. • Outlierが面倒くさい. • outlierを一つのsubspaceに押し込める!←あれ?? • Computer self-representation • inlierは顔,outliersは顔以外 • 多分,問題として簡単すぎるので,査読がちょっとゆるくない? # 自分はoutlier detection + クラスタ数推定で,これより上手く動き そうなのに落とされたので不満がある…. • random walkで,ぐるぐる廻れるならinlier • outlierでもinlierに近ければグルグル回れそうなのだが,詳細不明.
  • 12. Learning to Extract Semantic Structure From Documents Using Multimodal Fully Convolutional Neural Networks Xiao Yang et al. • 文書画像をブロックや見出しなどの領域に分ける. • Text Embedding Mapというものを作成し,最終層(FC)の前に 追加. • 一方で,手前の方で分岐しておいて,元の画像を復元するよう に学習(←predictの時は使わない) • 実装自体は,論文の図を見れば一発でわかる.
  • 13. FFTLasso: Large-Scale LASSO in the Fourier Domain Adel Bibi, Hani Itani, Bernard Ghanem • L1正則化の計算 • 提案手法は計算時間が早い • 計算量的には O(m^3)→O(mnlog m) • m^2 > n log m なら早い.正方行列はこれを満たす.n^2>n log n? • 計算量の理論値に対して,実験結果から得られる,実際の速度 の改善幅が小さいようにも見える. • コード: https://github.com/adelbibi/FFTLasso
  • 14. ポスターまで記述するのは力尽きました • 希望があれば関西CVPRML勉強会で解説. • 良く見て聴いてきたリスト(面白いと思ったもののみ掲載) • Deeply Supervised Salient Object Detection with Short Connections, Qibin Hou, Ming- Ming Cheng, Xiaowei Hu, Ali Borji, Zhuowen Tu, Philip Torr • 抽象度の高い層のfeature mapを浅い層のfeature mapにくっつけて(short connections),各層でsaliency mapを作成し,それらのmapをlinear sumすると良い結果を得られるらしい. • 抽象度が高すぎると物体のディテールが失われる?,ということだと思う. • それぞれの層の寄与度がよくわからないから,本当にそれが利いているのかポスターからも,質問しても, よくわからなかった. • Learning Cross-Modal Deep Representations for Robust Pedestrian Detection, Dan Xu, Wanli Ouyang, Elisa Ricci, Xiaogang Wang, Nicu Sebe • 可視光画像と温度画像のデータを相互に利用して,それぞれのセンサが苦手なところを,補うような学習 ができる→RGB画像のみでの精度があがる. • Annotating Object Instances with a Polygon-RNN, Lluís Castrejón, Kaustav Kundu, Raquel Urtasun, Sanja Fidler [Best Paper Honorable Mention Awards] • 詳細な領域形状のアノテーションを楽にするために,物体を囲むPolygonの編集点をRNNで出力するような学習を行った • 人間がacceptableなレベル(どうやって決めた??)まで精度が出た
  • 15. 続き • 希望があれば関西CVPRML勉強会で解説 • 良く見て聴いてきたリスト(面白いと思ったもののみ掲載) • Online Graph Completion: Multivariate Signal Recovery in Computer Vision, Won Hwa Kim, Mona Jalal, Seongjae Hwang, Sterling C. Johnson, Vikas Singh • グラフ信号処理を利用しているように思える. • 点群の欠損を上手く保管しているみたい. • やはり,グラフ信号処理の勉強が足りない…. • A Message Passing Algorithm for the Minimum Cost Multicut Problem, Paul Swoboda, Bjoern Andres • 普通のgraph cutはグラフを2つにしか分けられない.multicut(3つ以上に分ける)はNP-hard • 近似非(lower bound)などの詳細がポスターにはなかったが,linearで動くらしい. • Depth from Defocus in the Wild, Huixuan Tang, Scott Cohen, Brian Price, Stephen Schiller, Kiriakos N. Kutulakos • 手法の詳細は不明だが,CNN使ってない!?しかし,かなり出来ていそうだった.スマホ画像に対して動作さ せていた模様.一見すると,そこまでdefocusが目立つようには見えない画像.