2. > Paper-URL list on this survey
1. https://ieeexplore.ieee.org/document/8968155
2. https://arxiv.org/abs/1809.06893
3. https://ieeexplore.ieee.org/document/8967582
4. https://ieeexplore.ieee.org/document/8968081
5. https://ieeexplore.ieee.org/document/8967638
6. https://arxiv.org/abs/1903.00636
7. https://www.mdpi.com/1424-8220/20/3/706/htm
3. Recalling Candidates of Grasping Method from an Object Image using Neural Network
Makoto SANADA, Tadashi MATSUO, Nobutaka SHIMADA, and Yoshiaki SHIRAI
- 単一の物体画像から,ハンドの形状と把持位置の候補を NNから推定して画像情報として出力する手法.
- 学習データとして,物体とハンドそれぞれの depth画像,把持位置をガウス分布として表すグレースケール
画像を用いた.これらを使った NNの学習では,物体の形状と使用用途を考慮して把持位置を推定する.
- コップとマグカップを対象として,一つの画像から複数の把持候補推定できる
まとめた人:makihara
4. SilhoNet: An RGB Method for 6D Object Pose Estimation
Gideon Billings and Matthew Johnson-Roberson
- ROI(注目領域)を使って単眼画像から隠れがある場合を含む物体の位置姿勢の推定.
- 中間視点の物体の隠れなしの輪郭表現を行い,その結果を用いて姿勢推定を行っている.
- YCB-videoデータセットに対する検証において,対称性のある物体の位置姿勢推定において, PoseCNNよ
り精度がよく,多くの部分のクラスに対して他の RGB画像ベースの手法より精度が高い
まとめた人:makihara
5. Seeing Behind Things: Extending Semantic Segmentation to Occluded Regions
Pulak Purkait, Christopher Zach, and Ian Reid
- オクルージョンがある Depth画像入力から,背景画像とグループ(同じ種類の物体)ごとの領域をオクルー
ジョンを復元した画像を抽出した後に統合することで Semantic segmentation(画像内でのラベル領域の分
割)を行う.
- 損失関数では交差エントロピー誤差を改良した,カテゴリの領域ごとのオクルージョン領域と可視領域の推
定を加えている.
- 学習データにはSUNCG Datasetを改良したグループごとにラベル領域を与えた画像を合成データとして用
いた.
まとめた人:makihara
6. Combined Optimization of Gripper Finger Design and Pose
Estimation Processes for Advanced Industrial Assembly
Frederik Hagelskjær, Aljaz Kramberger, Adam Wolniakowski,
Thiusius Rajeeth Savarimuthu and Norbert Kruger
- 視覚による物体のポーズ推定に対する不確実性を計算し,これを吸収できるようなグリッパの形状を最適
化する手法.
- シミュレーションにノイズを加えた場合での把持性能の評価をベースにグリッパの形状パラメータを自動設
計する.
- 対象として,把持対象物体の3 Dモデルがある前提でポーズ推定を行い,円形物体に対して 3本爪ハンドの
爪先の形状を最適化したところ,最適化前と後で,実際の把持の成功率が向上した,
まとめた人:makihara
7. Learning to Grasp Arbitrary Household Objects
from a Single Demonstration
Elias De Coninck, Tim Verbelen, Pieter Van Molle, Pieter Simoens and Bart Dhoedt
- RGB画像から,任意の物体の把持学習手法の提案
- 先行研究では,大量のデータセットを使用して学習させるが,この方法だとコストが大きい
- そこで,人間による操作を 1度のみ行う事によって把持学習を行う手法を考案
- CNNは,入力をRGBのimgaeとし,出力を把持の成功率と把持方向のベクトル
- 本手法はhttps://arxiv.org/pdf/1806.03486.pdfの拡張であり,目標物体を Toy BlockからHouseholdにしている
まとめた人:souta hriose
8. Robot Learning via Human Adversarial Games
Jiali Duan, Qian Wang, Lerrel Pinto, C.-C. Jay Kuo and Stefanos Nikolaidis
- 学習を使ってロボットを操作する際には,学習コストが大きいのがネックになるが,この点を解消する為の案として学習に人間
の操作を入れるhuman-in-the-loopが提案されてきた.
- 基本的にhuman-in-the-loop中ではロボットが実行しているタスクへ協力するような行動を人間は行う.
- では,ロボットが実行しているタスクの邪魔(Adversarial)をするような行動を人間が行った時には,よりロバストな学習モデルが
獲得できるのか検証した.
- 検証では,Simulationのみ行い,タスクを物体の把持とした.Self-Supervisedの方法と比較し,人間のAdversalな行動を加え
た学習モデルの方がより,物体の把持成功率が向上した.
- 結果としてSimulationだけでまとめられているが,今後はmanipulatorやmobile robotの障害物回避に応用したいとのこと.
previous work https://arxiv.org/abs/1610.01685
まとめた人:souta hriose
上行:人間が邪魔する前の把持位置
下行:人間が邪魔した後の把持位置