SlideShare a Scribd company logo
1 of 9
Download to read offline
Pre-Survey 2020
2020-04-13 ~ 2020-04-19
Robotpaper.Challenge
> Paper-URL list on this survey
1. https://ieeexplore.ieee.org/document/8968155
2. https://arxiv.org/abs/1809.06893
3. https://ieeexplore.ieee.org/document/8967582
4. https://ieeexplore.ieee.org/document/8968081
5. https://ieeexplore.ieee.org/document/8967638
6. https://arxiv.org/abs/1903.00636
7. https://www.mdpi.com/1424-8220/20/3/706/htm
Recalling Candidates of Grasping Method from an Object Image using Neural Network
Makoto SANADA, Tadashi MATSUO, Nobutaka SHIMADA, and Yoshiaki SHIRAI
- 単一の物体画像から,ハンドの形状と把持位置の候補を NNから推定して画像情報として出力する手法.
- 学習データとして,物体とハンドそれぞれの depth画像,把持位置をガウス分布として表すグレースケール
画像を用いた.これらを使った NNの学習では,物体の形状と使用用途を考慮して把持位置を推定する.
- コップとマグカップを対象として,一つの画像から複数の把持候補推定できる
まとめた人:makihara
SilhoNet: An RGB Method for 6D Object Pose Estimation
Gideon Billings and Matthew Johnson-Roberson
- ROI(注目領域)を使って単眼画像から隠れがある場合を含む物体の位置姿勢の推定.
- 中間視点の物体の隠れなしの輪郭表現を行い,その結果を用いて姿勢推定を行っている.
- YCB-videoデータセットに対する検証において,対称性のある物体の位置姿勢推定において, PoseCNNよ
り精度がよく,多くの部分のクラスに対して他の RGB画像ベースの手法より精度が高い
まとめた人:makihara
Seeing Behind Things: Extending Semantic Segmentation to Occluded Regions
Pulak Purkait, Christopher Zach, and Ian Reid
- オクルージョンがある Depth画像入力から,背景画像とグループ(同じ種類の物体)ごとの領域をオクルー
ジョンを復元した画像を抽出した後に統合することで Semantic segmentation(画像内でのラベル領域の分
割)を行う.
- 損失関数では交差エントロピー誤差を改良した,カテゴリの領域ごとのオクルージョン領域と可視領域の推
定を加えている.
- 学習データにはSUNCG Datasetを改良したグループごとにラベル領域を与えた画像を合成データとして用
いた.
まとめた人:makihara
Combined Optimization of Gripper Finger Design and Pose
Estimation Processes for Advanced Industrial Assembly
Frederik Hagelskjær, Aljaz Kramberger, Adam Wolniakowski,
Thiusius Rajeeth Savarimuthu and Norbert Kruger
- 視覚による物体のポーズ推定に対する不確実性を計算し,これを吸収できるようなグリッパの形状を最適
化する手法.
- シミュレーションにノイズを加えた場合での把持性能の評価をベースにグリッパの形状パラメータを自動設
計する.
- 対象として,把持対象物体の3 Dモデルがある前提でポーズ推定を行い,円形物体に対して 3本爪ハンドの
爪先の形状を最適化したところ,最適化前と後で,実際の把持の成功率が向上した,
まとめた人:makihara
Learning to Grasp Arbitrary Household Objects
from a Single Demonstration
Elias De Coninck, Tim Verbelen, Pieter Van Molle, Pieter Simoens and Bart Dhoedt
- RGB画像から,任意の物体の把持学習手法の提案
- 先行研究では,大量のデータセットを使用して学習させるが,この方法だとコストが大きい
- そこで,人間による操作を 1度のみ行う事によって把持学習を行う手法を考案
- CNNは,入力をRGBのimgaeとし,出力を把持の成功率と把持方向のベクトル
- 本手法はhttps://arxiv.org/pdf/1806.03486.pdfの拡張であり,目標物体を Toy BlockからHouseholdにしている
まとめた人:souta hriose
Robot Learning via Human Adversarial Games
Jiali Duan, Qian Wang, Lerrel Pinto, C.-C. Jay Kuo and Stefanos Nikolaidis
- 学習を使ってロボットを操作する際には,学習コストが大きいのがネックになるが,この点を解消する為の案として学習に人間
の操作を入れるhuman-in-the-loopが提案されてきた.
- 基本的にhuman-in-the-loop中ではロボットが実行しているタスクへ協力するような行動を人間は行う.
- では,ロボットが実行しているタスクの邪魔(Adversarial)をするような行動を人間が行った時には,よりロバストな学習モデルが
獲得できるのか検証した.
- 検証では,Simulationのみ行い,タスクを物体の把持とした.Self-Supervisedの方法と比較し,人間のAdversalな行動を加え
た学習モデルの方がより,物体の把持成功率が向上した.
- 結果としてSimulationだけでまとめられているが,今後はmanipulatorやmobile robotの障害物回避に応用したいとのこと.
previous work https://arxiv.org/abs/1610.01685
まとめた人:souta hriose
上行:人間が邪魔する前の把持位置
下行:人間が邪魔した後の把持位置
Depth-Image-Based Textureless-Object Picking by DCNN and Visual
Servoing
Ping Jiang, Yoshiyuki Ishihara, Nobukatsu Sugiyama, Junji Oaki
Seiji Tokura, Atsushi Sugahara, and Akihito Ogawa
- 倉庫内にある物体(箱とか)をPickingする際には,CNNを用いて物体を見つけていた(Object Detection).しかし,この方法だと
CNNを学習させる為の大量のデータセットが必要になる上に物体の種類も必要になる.
- そこでObject Detctionすることなく,物体の把持点を算出する手法を提案.把持点の予測にはDeep CNNを用いた.
- また,把持点までのマニピュレーションにはDepth-Imageを用いたVisual Servoを用いた.Depth-Imageを用いることによって
,simulationとreal worldの間の入力の差異が小さくなり,simulationからreal worldへの移行が容易になった
- 実機では10個の箱を連続的にPickするタスクを行い,87.3%の成功率だった.
まとめた人:souta hriose

More Related Content

More from robotpaperchallenge

More from robotpaperchallenge (10)

Pre-Survey 2020 04-27:2020-05-03
Pre-Survey 2020 04-27:2020-05-03 Pre-Survey 2020 04-27:2020-05-03
Pre-Survey 2020 04-27:2020-05-03
 
Pre-Survey 2020 04-20:2020-04-26
Pre-Survey 2020 04-20:2020-04-26Pre-Survey 2020 04-20:2020-04-26
Pre-Survey 2020 04-20:2020-04-26
 
強化学習勉強会_No3
強化学習勉強会_No3強化学習勉強会_No3
強化学習勉強会_No3
 
強化学習勉強会_No2
強化学習勉強会_No2強化学習勉強会_No2
強化学習勉強会_No2
 
強化学習勉強会_No1@産総研
強化学習勉強会_No1@産総研強化学習勉強会_No1@産総研
強化学習勉強会_No1@産総研
 
Robotpaper.Challenge 2019-10
Robotpaper.Challenge 2019-10Robotpaper.Challenge 2019-10
Robotpaper.Challenge 2019-10
 
robotpaper.Challenge概略_v2@mixi
robotpaper.Challenge概略_v2@mixirobotpaper.Challenge概略_v2@mixi
robotpaper.Challenge概略_v2@mixi
 
Robotpaper.Challenge 2019-09 ver2
Robotpaper.Challenge 2019-09 ver2Robotpaper.Challenge 2019-09 ver2
Robotpaper.Challenge 2019-09 ver2
 
Robotpaper.Challenge 2019-08
Robotpaper.Challenge 2019-08Robotpaper.Challenge 2019-08
Robotpaper.Challenge 2019-08
 
RobotPaperChallenge 2019-07
RobotPaperChallenge 2019-07RobotPaperChallenge 2019-07
RobotPaperChallenge 2019-07
 

Pre-Survey 2020-04-13:2020-04-19

  • 1. Pre-Survey 2020 2020-04-13 ~ 2020-04-19 Robotpaper.Challenge
  • 2. > Paper-URL list on this survey 1. https://ieeexplore.ieee.org/document/8968155 2. https://arxiv.org/abs/1809.06893 3. https://ieeexplore.ieee.org/document/8967582 4. https://ieeexplore.ieee.org/document/8968081 5. https://ieeexplore.ieee.org/document/8967638 6. https://arxiv.org/abs/1903.00636 7. https://www.mdpi.com/1424-8220/20/3/706/htm
  • 3. Recalling Candidates of Grasping Method from an Object Image using Neural Network Makoto SANADA, Tadashi MATSUO, Nobutaka SHIMADA, and Yoshiaki SHIRAI - 単一の物体画像から,ハンドの形状と把持位置の候補を NNから推定して画像情報として出力する手法. - 学習データとして,物体とハンドそれぞれの depth画像,把持位置をガウス分布として表すグレースケール 画像を用いた.これらを使った NNの学習では,物体の形状と使用用途を考慮して把持位置を推定する. - コップとマグカップを対象として,一つの画像から複数の把持候補推定できる まとめた人:makihara
  • 4. SilhoNet: An RGB Method for 6D Object Pose Estimation Gideon Billings and Matthew Johnson-Roberson - ROI(注目領域)を使って単眼画像から隠れがある場合を含む物体の位置姿勢の推定. - 中間視点の物体の隠れなしの輪郭表現を行い,その結果を用いて姿勢推定を行っている. - YCB-videoデータセットに対する検証において,対称性のある物体の位置姿勢推定において, PoseCNNよ り精度がよく,多くの部分のクラスに対して他の RGB画像ベースの手法より精度が高い まとめた人:makihara
  • 5. Seeing Behind Things: Extending Semantic Segmentation to Occluded Regions Pulak Purkait, Christopher Zach, and Ian Reid - オクルージョンがある Depth画像入力から,背景画像とグループ(同じ種類の物体)ごとの領域をオクルー ジョンを復元した画像を抽出した後に統合することで Semantic segmentation(画像内でのラベル領域の分 割)を行う. - 損失関数では交差エントロピー誤差を改良した,カテゴリの領域ごとのオクルージョン領域と可視領域の推 定を加えている. - 学習データにはSUNCG Datasetを改良したグループごとにラベル領域を与えた画像を合成データとして用 いた. まとめた人:makihara
  • 6. Combined Optimization of Gripper Finger Design and Pose Estimation Processes for Advanced Industrial Assembly Frederik Hagelskjær, Aljaz Kramberger, Adam Wolniakowski, Thiusius Rajeeth Savarimuthu and Norbert Kruger - 視覚による物体のポーズ推定に対する不確実性を計算し,これを吸収できるようなグリッパの形状を最適 化する手法. - シミュレーションにノイズを加えた場合での把持性能の評価をベースにグリッパの形状パラメータを自動設 計する. - 対象として,把持対象物体の3 Dモデルがある前提でポーズ推定を行い,円形物体に対して 3本爪ハンドの 爪先の形状を最適化したところ,最適化前と後で,実際の把持の成功率が向上した, まとめた人:makihara
  • 7. Learning to Grasp Arbitrary Household Objects from a Single Demonstration Elias De Coninck, Tim Verbelen, Pieter Van Molle, Pieter Simoens and Bart Dhoedt - RGB画像から,任意の物体の把持学習手法の提案 - 先行研究では,大量のデータセットを使用して学習させるが,この方法だとコストが大きい - そこで,人間による操作を 1度のみ行う事によって把持学習を行う手法を考案 - CNNは,入力をRGBのimgaeとし,出力を把持の成功率と把持方向のベクトル - 本手法はhttps://arxiv.org/pdf/1806.03486.pdfの拡張であり,目標物体を Toy BlockからHouseholdにしている まとめた人:souta hriose
  • 8. Robot Learning via Human Adversarial Games Jiali Duan, Qian Wang, Lerrel Pinto, C.-C. Jay Kuo and Stefanos Nikolaidis - 学習を使ってロボットを操作する際には,学習コストが大きいのがネックになるが,この点を解消する為の案として学習に人間 の操作を入れるhuman-in-the-loopが提案されてきた. - 基本的にhuman-in-the-loop中ではロボットが実行しているタスクへ協力するような行動を人間は行う. - では,ロボットが実行しているタスクの邪魔(Adversarial)をするような行動を人間が行った時には,よりロバストな学習モデルが 獲得できるのか検証した. - 検証では,Simulationのみ行い,タスクを物体の把持とした.Self-Supervisedの方法と比較し,人間のAdversalな行動を加え た学習モデルの方がより,物体の把持成功率が向上した. - 結果としてSimulationだけでまとめられているが,今後はmanipulatorやmobile robotの障害物回避に応用したいとのこと. previous work https://arxiv.org/abs/1610.01685 まとめた人:souta hriose 上行:人間が邪魔する前の把持位置 下行:人間が邪魔した後の把持位置
  • 9. Depth-Image-Based Textureless-Object Picking by DCNN and Visual Servoing Ping Jiang, Yoshiyuki Ishihara, Nobukatsu Sugiyama, Junji Oaki Seiji Tokura, Atsushi Sugahara, and Akihito Ogawa - 倉庫内にある物体(箱とか)をPickingする際には,CNNを用いて物体を見つけていた(Object Detection).しかし,この方法だと CNNを学習させる為の大量のデータセットが必要になる上に物体の種類も必要になる. - そこでObject Detctionすることなく,物体の把持点を算出する手法を提案.把持点の予測にはDeep CNNを用いた. - また,把持点までのマニピュレーションにはDepth-Imageを用いたVisual Servoを用いた.Depth-Imageを用いることによって ,simulationとreal worldの間の入力の差異が小さくなり,simulationからreal worldへの移行が容易になった - 実機では10個の箱を連続的にPickするタスクを行い,87.3%の成功率だった. まとめた人:souta hriose