SlideShare a Scribd company logo
1 of 50
Download to read offline
GMOインターネット
次世代システム研究室
勝田 隼一郎
2016/10/10 立教大学
Deep Q-Learningで
FXしてみた
2
http://recruit.gmo.jp/engineer/jisedai/blog/deep-q-learning/
このスライド内容を、簡略にまとめたブログが以下
にあります。参考にしてください。
3
自己紹介
2006: ボートを漕ぎすぎて留年
2011: 東京大学大学院理学系
研究科物理学 修了(博士)
2011-16: Stanford大学と広島大学で
ポスドク(日本学術振興会;
高エネルギー宇宙物理学)
2016.4: GMOインターネット
次世代システム研究室
データサイエンティスト兼アーキテクト 超新星残骸
勝田 隼一郎
4
機械学習とは
教師あり学習
教師なし学習
強化学習
5
機械学習(教師あり学習)
input
data
output
data
与えられたデータyに合うように
パラメータを学習(人のアナロジー)
モデル
x f(x) = ax + b f(x) vs y
f(x) = 1*x + 7 f(x) = 2.1x + 1.6
6
本研究の目的
教師あり学習 (正解を常に与える必要あり)
2Qの研究:
Deep Learning
を用いた株価変動の予想
予想を元に、売買の方針を立てる必要あり。
「正解」はない。
株やFXをする場合、予想がゴールではない。
7
本研究の目的
強化学習 (Deep Q-Learningはその一種)
データとルールを与えれば、「自動的に」最適
な行動を学習する。
FXに使えるかも!
8
Outline
1. 理論
• Deep Q-Learningとは
2. 実装
• Keras & TensorFlowによる実装
• デモ:ゲームの学習 (テストとして)
3. 実践
• Deep Q-LearningでFX
9
Deep Q-Learning
10
Deep Q-Learningとは?
Deep Learningの技術を
Q-Learning (強化学習の一種)というフレーム
ワークに応用
1. 強化学習
2. Q-Learning
3. Deep Learning
11
強化学習
Agent (学習者)が
環境からの
情報(状態、報酬)を
もとに、最適(最終
的な報酬が最も高く
なる)な行動をとる
ように学習する技術
12
囲碁の場合
状態: 盤上の碁の位置
行動: 自分の石を一つ置く
報酬: 勝つか負けるか
13
Q-Learning
行動関数Qπ
(s, a):
 方針πの下、状態sで行動aをしたとき、最終
的に得られる報酬(最終報酬)の期待値
「アリとキリギリス」を例にすると、、
Qキリギリス
:s=夏遊ぶ(報酬大きい)
   -> 冬大変(最終報酬は小さい)
Qアリ
:s=夏働く(報酬小さい)
   -> 冬助かる(最終報酬は大きい)
14
Q-Learning
最終的に得られる報酬が、高くなる
ような行動を取る方針π*を学ぶ
Q-Learning: 行動関数Qπ
を良くする(学習)
 することで、最適な行動を学習する手法
15多すぎて、全ての経路の報酬はわからない
t=0
s
t
s1
t
s2
1
s
a1 a2 a3
? ? ? ? ? ? ? ?
a1 a1 a1
最終報酬
までの経路
最終報酬
16
最初 → ランダムに行動
→ 徐々に最終報酬が記録される
→ 最終報酬が高い経路の付近を選択的に行動
→ 新たに得られた最終報酬が記録される
→ 繰り返し=学習 (精度が良くなると期待)
t
s1
t
s2
? 0 2 ?10? ? ?
a1 a1 a1
最終報酬
17
そんな魔法みたいな関数あるの?
難しい環境(ゲーム, FX, etc)になった
ら、多数の複雑な状況を柔軟に学習する
行動関数Q(s, a)が必要
18
教師あり学習
input
data
output
data
与えられたデータyに合うように
パラメータを学習(人のアナロジー)
モデル
f(x)
x f(x) = ax + b f(x) vs y
f(x) = 1*x + 7 f(x) = 2.1x + 1.6
19
教師あり学習
f(x) = a*x + b f(x) = a*sin(b*x)
適切なモデルを考える必要がある
→ 大変!!! (データが増えるほど)
モデル モデル
input
data
output
data
モデル
f(x)
20
Deep Learning
Deep!
複雑な表現
層が
が可能input output
21
実装&デモ
22
実装ことはじめ
FX学習を実装するにはAgent、環境など全て
自分で構築する必要あり
いきなり全部作るのは大変
まずはテストをしたい
23
色々なゲームを強化学習用にemulateした
ライブラリ
=>
Agentの作成に集中
でき、テストもできる。
OpenAI Gym
OpenAI Gym
1. Cart pole
2. Pong
24
Keras & TensorFlow
直感的に使える
TensorFlow, Theanoをバックエンドで使用
Python
コード量が少ない
→ 初心者に優しい → 海外で人気
25
Game1: Cart pole
状態: 棒の傾き、カートの位置
行動: カートの動き (右 / 左)
報酬: 倒れるまでの時間(step数)
単純 -> 学習速度が速い。
最初にテストするのに最適
26
Demo
1. 学習過程
2. 学習後のモデル
27
Game2: Pong
状態: 画像
行動: ラケットの動き (上 / 下)
報酬: 得点 / 失点
敵
自分
ボール
28
結果
学習数
合計得点
勝ち
負け
① 学習前 ② 学習後(48h)
0 - 21
21 - 20
29
CPU -> GPU
CPUでは時間がかかりすぎる(数十時間は
当たり前)。Trial & Errorができず、研究が
難しい。
より計算スピードが速いGPUに切り替えた
• AWS (Amazon Web Services)
• Keras/TensorFlowともにGPU対応
 
30
CPU -> GPU
CPU環境
• QEMU Virtual CPU version
• 仮想12CPU, m120GB, 2.7GHz
• 速度:135 min / 500 episodes
GPU (AWS)
• g2.8xlarge (Intel Xeon E5-2670プロセッサー)
• NVIDIA GPU(1,536 CUDA コアと 4GB のビデオメモ
リ)
• 4GPU, m60GB
• 速度:25 min / 500 episodes (~6倍速); 1GPUのみ使
用
31
FX
32
FX (Foreign eXchange)
通貨の相対価値は変化する
儲け:安いときに買って、高いときに売る
円安(ドル高)
円高(ドル安)
買い 買い
売り
売り
ドルが高くなった分が利益
ドルが安くなった分が利益
33
元金(JPY=100万円)
最終的な評価は、学習に使わない期間
(2014-2016)を2週間ごとに区切り(75区
間)、AgentにFXさせた儲け/損の平均値。
目的:FXを2週間して、儲け
られるようAgentを学習!
問題定義
34
2通貨ペア(JPY/USD, JPY/EUR)を採用
人が見つけられない複雑な組み合わせパター
ン複雑をAgentが学習する、かも。
FXデータ
円/USD
円/EUR
レート(2時間平均)
時間
学習期間 評価期間
Forex historical
dataより取得
35
状態:
過去2週間分のrate(JPY, USD, EUR)
所持している通貨量
行動:
売り、買い、ステイ
報酬:
終了時の総資産(円単位)
持っている通貨をその時点のレートで換算
テスト1
実装したAgentや環境をテストするため、予測
が簡単な疑似データ(USDのみ)を作り、Agent
に学習させた。
trade期間
円/USD
時間
疑似FXデータ
36
37
結果
学習数
儲け
(100万円)
学習して儲けている!→ 成功
元金
38
スタート 終了考察
疑似レート
(円/USD)
時間
所持している
各通貨量
(JPY: 100万円
USD: 1万ドル)
ドル高
ドル安
39
テスト2
通貨ペアを2つ使い、両者の情報を学習しないと
儲けることができない疑似データを作成
通貨ペア x 1 → 通貨ペア x 2
trade期間
円/USD
円/EUR
時間
疑似FXデータ
40
結果
学習数
儲け
(100万円)
儲けられず。。→ 適切に学習できていない
元金
41
行動関数Q(s, a)の変更
行動関数 = Deep Learningのモデルの形状が
適切でないため、学習を妨げている?
→ 変更 (4モデル試す)
42
元金
学習数
元金
学習数
モデル1
モデル3
モデル2 学習数
元金
学習数
元金
モデル4
過学習?
43
過学習
過学習
モデルが学習データに適合しすぎて、ノイズまで
再現するように学習するため、学習データ以外の
データ(予想したいデータ)の予測精度が悪化
→ 適切なパラメータ数、学習回数にするこ
とが大切
44
疑似レート
(円/USD, EUR)
所持している
各通貨量
(JPY: 100万円
USD/EUR:
1万ドル)
ドル高
ドル安
考察(モデル4)
45
実データ
2つの通貨ペア (JPY/USD, EUR/USD)
ランダム要素が強い
円/USD
円/EUR*
レート
時間
trade期間
 *EURは見やすさのため
normalized
46
元金(100万円)
学習数
トレード後の資産
トレード後の資産
学習数学習数
学習数
評価データ 評価データ(移動平均)
学習データ(移動平均)学習データ
105万円
105万円
95万円
95万円
元金(100万円)
結果
過学習?
47
Summary
48
まとめ
Deep Q-Learningを実装しFXをした。
テストデータでは学習していることを確か
めた。= FXデータにパターンが存在すれば、
自律的に儲けられる事を確かめた。
実データでも、学習データでは儲ける方針
を学習した。評価データでも学んだようにも
見えるが、さらなる検証が必要。
49
今後の方向性
問題定義の見直し
インプットデータは適切だったのか?
2週間は適切だったのか?
通貨ペアを増やす
取引量を変更
Agentの行動関数のモデル部分の改善
もっと学習速度を上げたい -> マルチGPU
50
ご清聴ありがとうございました!

More Related Content

What's hot

「世界モデル」と関連研究について
「世界モデル」と関連研究について「世界モデル」と関連研究について
「世界モデル」と関連研究についてMasahiro Suzuki
 
強化学習その4
強化学習その4強化学習その4
強化学習その4nishio
 
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門shima o
 
強化学習その3
強化学習その3強化学習その3
強化学習その3nishio
 
Hyperoptとその周辺について
Hyperoptとその周辺についてHyperoptとその周辺について
Hyperoptとその周辺についてKeisuke Hosaka
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
AHC-Lab M1勉強会 論文の読み方・書き方
AHC-Lab M1勉強会 論文の読み方・書き方AHC-Lab M1勉強会 論文の読み方・書き方
AHC-Lab M1勉強会 論文の読み方・書き方Shinagawa Seitaro
 
最近のディープラーニングのトレンド紹介_20200925
最近のディープラーニングのトレンド紹介_20200925最近のディープラーニングのトレンド紹介_20200925
最近のディープラーニングのトレンド紹介_20200925小川 雄太郎
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習Deep Learning JP
 
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured PredictionDeep Learning JP
 
分散学習のあれこれ~データパラレルからモデルパラレルまで~
分散学習のあれこれ~データパラレルからモデルパラレルまで~分散学習のあれこれ~データパラレルからモデルパラレルまで~
分散学習のあれこれ~データパラレルからモデルパラレルまで~Hideki Tsunashima
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類Shintaro Fukushima
 
優れた研究論文の書き方
優れた研究論文の書き方優れた研究論文の書き方
優れた研究論文の書き方Masanori Kado
 
報酬設計と逆強化学習
報酬設計と逆強化学習報酬設計と逆強化学習
報酬設計と逆強化学習Yusuke Nakata
 
Surveyから始まる研究者への道 - Stand on the shoulders of giants -
Surveyから始まる研究者への道 - Stand on the shoulders of giants -Surveyから始まる研究者への道 - Stand on the shoulders of giants -
Surveyから始まる研究者への道 - Stand on the shoulders of giants -諒介 荒木
 
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有Naoaki Okazaki
 
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理するHiroshi Shimizu
 
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)Tatsuya Yokota
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習Eiji Uchibe
 

What's hot (20)

「世界モデル」と関連研究について
「世界モデル」と関連研究について「世界モデル」と関連研究について
「世界モデル」と関連研究について
 
強化学習その4
強化学習その4強化学習その4
強化学習その4
 
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
 
強化学習その3
強化学習その3強化学習その3
強化学習その3
 
Hyperoptとその周辺について
Hyperoptとその周辺についてHyperoptとその周辺について
Hyperoptとその周辺について
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
AHC-Lab M1勉強会 論文の読み方・書き方
AHC-Lab M1勉強会 論文の読み方・書き方AHC-Lab M1勉強会 論文の読み方・書き方
AHC-Lab M1勉強会 論文の読み方・書き方
 
最近のディープラーニングのトレンド紹介_20200925
最近のディープラーニングのトレンド紹介_20200925最近のディープラーニングのトレンド紹介_20200925
最近のディープラーニングのトレンド紹介_20200925
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
 
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
 
分散学習のあれこれ~データパラレルからモデルパラレルまで~
分散学習のあれこれ~データパラレルからモデルパラレルまで~分散学習のあれこれ~データパラレルからモデルパラレルまで~
分散学習のあれこれ~データパラレルからモデルパラレルまで~
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類
 
優れた研究論文の書き方
優れた研究論文の書き方優れた研究論文の書き方
優れた研究論文の書き方
 
報酬設計と逆強化学習
報酬設計と逆強化学習報酬設計と逆強化学習
報酬設計と逆強化学習
 
Surveyから始まる研究者への道 - Stand on the shoulders of giants -
Surveyから始まる研究者への道 - Stand on the shoulders of giants -Surveyから始まる研究者への道 - Stand on the shoulders of giants -
Surveyから始まる研究者への道 - Stand on the shoulders of giants -
 
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有
 
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する
 
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
 

Similar to Deep Q-LearningでFXしてみた

NNで広告配信のユーザー最適化をやってみた。@ TFUG #3
NNで広告配信のユーザー最適化をやってみた。@ TFUG #3NNで広告配信のユーザー最適化をやってみた。@ TFUG #3
NNで広告配信のユーザー最適化をやってみた。@ TFUG #3Junichiro Katsuta
 
Deep Learningによる株価変動の予想
Deep Learningによる株価変動の予想Deep Learningによる株価変動の予想
Deep Learningによる株価変動の予想Junichiro Katsuta
 
TensorFlowでニューラルネットを作って、広告配信の最適化をやってみた
TensorFlowでニューラルネットを作って、広告配信の最適化をやってみたTensorFlowでニューラルネットを作って、広告配信の最適化をやってみた
TensorFlowでニューラルネットを作って、広告配信の最適化をやってみたJunichiro Katsuta
 
実社会・実環境におけるロボットの機械学習 ver. 2
実社会・実環境におけるロボットの機械学習 ver. 2実社会・実環境におけるロボットの機械学習 ver. 2
実社会・実環境におけるロボットの機械学習 ver. 2Kuniyuki Takahashi
 
[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへー
[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへー[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへー
[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへーDeep Learning Lab(ディープラーニング・ラボ)
 
20190214 Tobita Tech Yuma Matsuoka AI Tech
20190214 Tobita Tech Yuma Matsuoka AI Tech20190214 Tobita Tech Yuma Matsuoka AI Tech
20190214 Tobita Tech Yuma Matsuoka AI TechYumaMatsuoka
 
Kansai MotionControl Networkキックオフ
Kansai MotionControl NetworkキックオフKansai MotionControl Networkキックオフ
Kansai MotionControl NetworkキックオフTomohiro Takata
 
プロジェクトマネジメント再入門 〜PjMは何であって何でないのか〜
プロジェクトマネジメント再入門 〜PjMは何であって何でないのか〜プロジェクトマネジメント再入門 〜PjMは何であって何でないのか〜
プロジェクトマネジメント再入門 〜PjMは何であって何でないのか〜Ayako Togaeri
 
Autoware: ROSを用いた一般道自動運転向けソフトウェアプラットフォーム
Autoware: ROSを用いた一般道自動運転向けソフトウェアプラットフォームAutoware: ROSを用いた一般道自動運転向けソフトウェアプラットフォーム
Autoware: ROSを用いた一般道自動運転向けソフトウェアプラットフォームTakuya Azumi
 
高専カンファレンスについて @kosenconf-012hachinohe
高専カンファレンスについて @kosenconf-012hachinohe高専カンファレンスについて @kosenconf-012hachinohe
高専カンファレンスについて @kosenconf-012hachinoheKuniaki Igarashi
 
実社会・実環境におけるロボットの機械学習
実社会・実環境におけるロボットの機械学習実社会・実環境におけるロボットの機械学習
実社会・実環境におけるロボットの機械学習Kuniyuki Takahashi
 
計算で明らかにするタンパク質の出会いとネットワーク(FIT2016 助教が吼えるセッション)
計算で明らかにするタンパク質の出会いとネットワーク(FIT2016 助教が吼えるセッション)計算で明らかにするタンパク質の出会いとネットワーク(FIT2016 助教が吼えるセッション)
計算で明らかにするタンパク質の出会いとネットワーク(FIT2016 助教が吼えるセッション)Masahito Ohue
 
深層強化学習の self-playで、複雑な行動を機械に学習させたい!
深層強化学習の self-playで、複雑な行動を機械に学習させたい!深層強化学習の self-playで、複雑な行動を機械に学習させたい!
深層強化学習の self-playで、複雑な行動を機械に学習させたい!Junichiro Katsuta
 
人工知能に何ができないか? ー ゲームと人工知能の視点から -
人工知能に何ができないか? ー ゲームと人工知能の視点から -人工知能に何ができないか? ー ゲームと人工知能の視点から -
人工知能に何ができないか? ー ゲームと人工知能の視点から -Youichiro Miyake
 
Askul internal study-session
Askul internal study-sessionAskul internal study-session
Askul internal study-sessionShimpeiIwamaru
 
第15回machine learning 15minutes!: 現場のラボ化とラボの現場化:より広くより深く
第15回machine learning 15minutes!: 現場のラボ化とラボの現場化:より広くより深く第15回machine learning 15minutes!: 現場のラボ化とラボの現場化:より広くより深く
第15回machine learning 15minutes!: 現場のラボ化とラボの現場化:より広くより深くKurata Takeshi
 

Similar to Deep Q-LearningでFXしてみた (20)

NNで広告配信のユーザー最適化をやってみた。@ TFUG #3
NNで広告配信のユーザー最適化をやってみた。@ TFUG #3NNで広告配信のユーザー最適化をやってみた。@ TFUG #3
NNで広告配信のユーザー最適化をやってみた。@ TFUG #3
 
Deep Learningによる株価変動の予想
Deep Learningによる株価変動の予想Deep Learningによる株価変動の予想
Deep Learningによる株価変動の予想
 
TensorFlowでニューラルネットを作って、広告配信の最適化をやってみた
TensorFlowでニューラルネットを作って、広告配信の最適化をやってみたTensorFlowでニューラルネットを作って、広告配信の最適化をやってみた
TensorFlowでニューラルネットを作って、広告配信の最適化をやってみた
 
実社会・実環境におけるロボットの機械学習 ver. 2
実社会・実環境におけるロボットの機械学習 ver. 2実社会・実環境におけるロボットの機械学習 ver. 2
実社会・実環境におけるロボットの機械学習 ver. 2
 
[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへー
[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへー[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへー
[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへー
 
20190214 Tobita Tech Yuma Matsuoka AI Tech
20190214 Tobita Tech Yuma Matsuoka AI Tech20190214 Tobita Tech Yuma Matsuoka AI Tech
20190214 Tobita Tech Yuma Matsuoka AI Tech
 
Kansai MotionControl Networkキックオフ
Kansai MotionControl NetworkキックオフKansai MotionControl Networkキックオフ
Kansai MotionControl Networkキックオフ
 
プロジェクトマネジメント再入門 〜PjMは何であって何でないのか〜
プロジェクトマネジメント再入門 〜PjMは何であって何でないのか〜プロジェクトマネジメント再入門 〜PjMは何であって何でないのか〜
プロジェクトマネジメント再入門 〜PjMは何であって何でないのか〜
 
Autoware: ROSを用いた一般道自動運転向けソフトウェアプラットフォーム
Autoware: ROSを用いた一般道自動運転向けソフトウェアプラットフォームAutoware: ROSを用いた一般道自動運転向けソフトウェアプラットフォーム
Autoware: ROSを用いた一般道自動運転向けソフトウェアプラットフォーム
 
高専カンファレンスについて @kosenconf-012hachinohe
高専カンファレンスについて @kosenconf-012hachinohe高専カンファレンスについて @kosenconf-012hachinohe
高専カンファレンスについて @kosenconf-012hachinohe
 
UsingChainerMN
UsingChainerMNUsingChainerMN
UsingChainerMN
 
実社会・実環境におけるロボットの機械学習
実社会・実環境におけるロボットの機械学習実社会・実環境におけるロボットの機械学習
実社会・実環境におけるロボットの機械学習
 
最適化数理分野(研究室)の案内
最適化数理分野(研究室)の案内最適化数理分野(研究室)の案内
最適化数理分野(研究室)の案内
 
計算で明らかにするタンパク質の出会いとネットワーク(FIT2016 助教が吼えるセッション)
計算で明らかにするタンパク質の出会いとネットワーク(FIT2016 助教が吼えるセッション)計算で明らかにするタンパク質の出会いとネットワーク(FIT2016 助教が吼えるセッション)
計算で明らかにするタンパク質の出会いとネットワーク(FIT2016 助教が吼えるセッション)
 
深層強化学習の self-playで、複雑な行動を機械に学習させたい!
深層強化学習の self-playで、複雑な行動を機械に学習させたい!深層強化学習の self-playで、複雑な行動を機械に学習させたい!
深層強化学習の self-playで、複雑な行動を機械に学習させたい!
 
人工知能に何ができないか? ー ゲームと人工知能の視点から -
人工知能に何ができないか? ー ゲームと人工知能の視点から -人工知能に何ができないか? ー ゲームと人工知能の視点から -
人工知能に何ができないか? ー ゲームと人工知能の視点から -
 
Askul internal study-session
Askul internal study-sessionAskul internal study-session
Askul internal study-session
 
Sakai 20111203
Sakai 20111203Sakai 20111203
Sakai 20111203
 
第15回machine learning 15minutes!: 現場のラボ化とラボの現場化:より広くより深く
第15回machine learning 15minutes!: 現場のラボ化とラボの現場化:より広くより深く第15回machine learning 15minutes!: 現場のラボ化とラボの現場化:より広くより深く
第15回machine learning 15minutes!: 現場のラボ化とラボの現場化:より広くより深く
 
20150414seminar
20150414seminar20150414seminar
20150414seminar
 

Deep Q-LearningでFXしてみた