SlideShare a Scribd company logo
1 of 53
AI入門 第3回
「数学が苦手でも作って使える
Kerasディープラーニング」
~時系列データの予測をサクっとこなす~
2017/08/15 ver0.5作成
2017/09/25 ver0.9作成
2017/11/14 ver1.0(macOS対応)作成
1
AI入門 第1回では、TensorFlowのチュートリアルを使った、
「ディープラーニングによる画像処理」にて、ディープラーニングが、
手元のPCで気軽に実行できることを体験していただきました
一方、業務における「利用・活用」の観点では、画像処理以上
に、閲覧データや購入データ、行動データ等の「時系列データ」に
対する分析・推論の方が、ポピュラーだと思います
そこで今回は、「時系列データ」の予測に特化したモデルの構築
と、時系列の予測を実現する方法を解説していきます
はじめに ~業務利用向けのディープラーニング~
tabby cat
(トラ猫)
tiger cat
(トラ猫)
beaker
(ビーカー)
Persian cat
(ペルシャ猫)Egyptian cat
(エジプト猫)
2
本セッションの流れ
最初に、「ディープラーニング」の元となる「ニューラルネットワーク」
の要素について解説します
その後、
「Kerasで開発すると、複雑な数式による
モデル構築をせずとも、ディープラーニング
による時系列学習モデルが開発でき、
データ予測が実現できる」
ということを、実際に動くコードで実感していただきます
「機械学習による時系列データ分析」が、高度な予備知識無し
で気軽に開発できることを体感するセッションです
3
1. はじめてのニューラルネットワーク
2. Kerasについて
3. kerasを使えるようにする
4. KerasでのML開発入門
5. 2層ニューラルネットワークでXOR
6. ディープラーニングで時系列分析
7. ロジックを組まない予測の世界へ
8. 付録:「学習」の中身
目次
4
1.はじめてのニューラルネットワーク
5
「ディープラーニング」は、「ディープニューラルネットワーク」にて学習
する手法なので、まずは「ニューラルネットワーク」から始めます
ニューラルネットワークは、人の脳内神経細胞である「ニューロン」
の脳内ネットワークをコンピュータの「人工ニューロン」で模したもの
であり、ニューロン間の情報伝達により、物事を認識したり、情報
処理する人間の脳に似た機能をエミュレーションします
1.はじめてのニューラルネットワーク
脳内ニューロンのネットワーク
入
力
信
号
出
力
信
号
ニューラルネットワーク
入
力
信
号
出
力
信
号
6
1.はじめてのニューラルネットワーク
ニューラルネットワーク内の単一のニューロンは、以下の通りです
x1~xnの各入力の強弱により、出力yが有効な出力を行う
ケースと、行わないケースが分かれますが、有効な出力を行った
場合に「ニューロンが活性化」したと表現します
ニューラルネットワークとしての出力は、この単一ニューロンの組み
合わせによって決まります
入力x1
出力y
入力x2
入力xn
… …
7
1.はじめてのニューラルネットワーク
「ディープラーニング」とは、このニューラルネットワークを多層構造
に構成したもので学習・推論することを指します
「データが持つ特徴を、自動抽出」できる点(≒人手が不要)
が、ディープラーニングの革新的なポイントです
8
2.Kerasについて
9
2.Kerasについて
Kerasは、TensorFlowをコアとして動作するラッパーライブラリで、
本来、数学を用いて、ニューラルネットワークやディープラーニング
を構築する必要があるところの大部分を代行してくれます
Kerasを使わず、TensorFlowそのままでコーディングした場合、
「学習」部分を数式に相当するコードで書くこととなります※が、
Kerasを使った場合は、数式を一切使わずとも、「学習」部分が
コーディングできるのが、最大の特徴です
※Kerasで省略される「学習」における数式については、末尾に付録として掲載しています
https://keras.io/ja/
10
3.Kerasを使えるようにする
11
3.Kerasを使えるようにする
Kerasを使い始めるのに、3種類の方法があります
① 各種OS用のpip (Pythonパッケージマネージャ) 経由で
インストールする
② 【Windows、Mac】Anaconda (Python環境マネー
ジャ) 経由でインストールする
③ DockerからTensorFlowイメージをインスト―ル(pull)
する
Dockerが最もお手軽ではありますが、今回は、グラフ表示する
都合から、Windows版を使って解説します
12
3.Kerasを使えるようにする
「Anaconda」は、数学系、科学系、データ分析系のPython
パッケージを、一括でインストールでき、かつ複数の環境も管理で
きるアプリで、Kerasも簡単にインストールできます
13
3.Kerasを使えるようにする
Anacondaは、以下URLからダウンロードします
(ここでは、Windwos版とmacOS版について説明します)
https://www.anaconda.com/download/
14
3.Kerasを使えるようにする
「Environments」クリック後、「Create」ボタンから、Python
環境を作成します
【macOSのみ】Pythonを「3.5」にしてください
15
3.Kerasを使えるようにする
Anacondaから、ターミナルを起動します
このとき、誤って「root」から起動しないよう、ご注意ください
16
3.Kerasを使えるようにする
Kerasをpipでインストールします
PythonコマンドでREPLが起動し、Kerasがエラー無くimport
できれば、インストールは成功です
exit()と打てば、Pythonを抜けて、ターミナルに戻ります
もしエラーが出たときは、前ページをやり直してください
# python
>>> import keras
Using TensorFlow backend.
>>>
>>> exit()
#
# pip install tensorflow
# pip install keras
17
4.KerasでのML開発入門
18
4.KerasでのML開発入門
単層ニューラルネットワークによる学習・推論として、入力の0/1を
反転させるニューラルネットワークを作ってみましょう
このニューラルネットワークへの入力と出力は、以下の表のような
関係となります
この反転するニューラルネットワークをKerasで開発してみます
NOT
入力 出力
入力 出力
0 1
1 0
19
4.KerasでのML開発入門
以下を「not.py」というファイルで保存します
(コード内容の解説は、実行後に行います)
import numpy as np
from keras.models import Sequential
from keras.layers import Dense, Activation
from keras.optimizers import SGD
model = Sequential( [ Dense( input_dim = 1, units = 1 ), Activation( 'sigmoid' ) ] )
model.compile( loss = 'binary_crossentropy', optimizer = SGD( lr = 0.1 ) )
input = np.array( [ [ 0 ], [ 1 ] ] )
expected = np.array( [ [ 1 ], [ 0 ] ] )
model.fit( input, expected, epochs = 200, batch_size = 1 )
print()
classes = model.predict_classes( input, batch_size = 1 )
print( '###### classes ######' )
print( classes )
probably = model.predict_proba( input, batch_size = 1 )
print( '###### probably ######' )
print( probably )
20
4.KerasでのML開発入門
以下コマンドで実行します
以下のような結果が返ってくれば、学習・推論は成功です
赤で囲んだところは、「1」となる確率を示しており、input=0だと
84.9%の確率で1、input=1だと9.8%の確率で1 (つまり、
90.1%の確率で0) と推論しています
Using TensorFlow backend.
Epoch 1/200
2/2 [==============================] - 4s - loss: 0.7516
Epoch 2/200
2/2 [==============================] - 0s - loss: 0.7363
…(略)…
Epoch 200/200
2/2 [==============================] - 0s - loss: 0.1349
###### classes ######
[[1]
[0]]
###### probably ######
[[ 0.84955114]
[ 0.09877715]]
# python not.py
21
4.KerasでのML開発入門
コード内容について解説します
Sequential()は、ニューラルネットワーク層のモデルを決めるため
のメソッドで、「input_dim」で入力データを1次元として設定し、
「Activation」でニューロンの活性化判定に「シグモイド関数」※
を設定します
※「シグモイド関数」は、今のところ、「ニューロンの活性化判定に使える」程度の理解でOKです
model.compile()は、モデルの学習時設定を行うメソッドで、
「loss」で設定する「損失関数」と、「optimizer」で設定する
「学習効率の最適化手法 (学習率)」で、学習効率を最適化
することができます
(この2つの値の意味については、今のところ、「ほどほど適切に最適」とご認識いただくだけでOKです)
model = Sequential( [ Dense( input_dim = 1, units = 1 ), Activation( 'sigmoid' ) ] )
model.compile( loss = 'binary_crossentropy', optimizer = SGD( lr = 0.1 ) )
22
4.KerasでのML開発入門
(続き)
入力と期待値の値を定義します
model.fit()で、構築したモデルに入力と期待値を渡し、学習を
行います
「epochs」で設定する「学習時の試行数」は200回とします
「batch_size」では、学習時の1回あたりのデータサイズ分割を
設定することで、メモリ不足対策や高速化ができますが、問題が
未だ大きく無いので、サイズ分割無の1で大丈夫です
input = np.array( [ [ 0 ], [ 1 ] ] )
expected = np.array( [ [ 1 ], [ 0 ] ] )
model.fit( input, expected, epochs = 200, batch_size = 1 )
23
4.KerasでのML開発入門
(続き)
学習したモデルに、改めて入力を入れ、推論 (≒予測) をさせた
結果を表示します
これが期待値と一致していれば、うまく学習・推論できたということ
になります
上記は、推論の認識確率 (前述した赤枠部分) の精度がどの
位だったかを表示します
classes = model.predict_classes( input, batch_size = 1 )
print( '###### classes ######' )
print( classes )
prob = model.predict_proba( input, batch_size = 1 )
print( '###### classes ######' )
print( probably )
24
4.KerasでのML開発入門
試行数を10回に減らすと、結果がどう変わるか確認します
200回時は、input=0が84.9%、input=1が90.1%なのが、
10回だと、input=0が50.5%、input=1が57.3%と、認識
率がだいぶ減りました
正解は、かろうじて出ているレベルですが、心もとないので、50回
以上には設定しておいた方が良いでしょう
# python not.py
Using TensorFlow backend.
Epoch 1/10
2/2 [==============================] - 1s - loss: 0.7516
…(略)…
###### classes ######
[[1]
[0]]
###### probably ######
[[ 0.50553364]
[ 0.42703652]]
25
4.KerasでのML開発入門
今度は、入力が2つの単層ニューラルネットワークの例として、OR
判定するニューラルネットワークを作ってみましょう
このニューラルネットワークへの入力と出力は、以下の表のような
関係となります
入力1
出力
入力2 出力
0 0
1 1
0 1
1 1
入力1
0
0
1
1
OR
入力2
26
4.KerasでのML開発入門
「not.py」を元に、下記赤枠を変更し、「or.py」で保存します
(「input_dim」を2次元に変更し、xとyを書き換える)
import numpy as np
from keras.models import Sequential
from keras.layers import Dense, Activation
from keras.optimizers import SGD
model = Sequential( [ Dense( input_dim = 2, units = 1 ), Activation( 'sigmoid' ) ] )
model.compile( loss = 'binary_crossentropy', optimizer = SGD( lr = 0.1 ) )
input = np.array( [ [ 0, 0 ], [ 0, 1 ], [ 1, 0 ], [ 1, 1 ] ] )
expected = np.array( [ [ 0 ], [ 1 ], [ 1 ], [ 1 ] ] )
model.fit( input, expected, epochs = 200, batch_size = 1 )
print()
classes = model.predict_classes( input, batch_size = 1 )
print( '###### classes ######' )
print( classes )
probably = model.predict_proba( input, batch_size = 1 )
print( '###### probably ######' )
print( probably )
27
4.KerasでのML開発入門
以下コマンドで実行します
以下のような結果が返ってくれば、学習・推論は成功です
赤枠部分は、前述のnotと同じく、「1」となる確率で、期待通り
にORが推論できていることが確認できます
Epoch 1/200
4/4 [==============================] - 0s - loss: 0.4352
…(略)…
Epoch 200/200
4/4 [==============================] - 0s - loss: 0.1011
###### classes ######
[[0]
[1]
[1]
[1]]
###### probably ######
[[ 0.20687966]
[ 0.92517704]
[ 0.91522515]
[ 0.99804986]]
# python or.py
28
4.KerasでのML開発入門
ORは、試行数が10回だと、誤推論してしまいました
やはり最低でも、50回程度は必須です
…(略)…
###### classes ######
[[1]
[1]
[1]
[1]]
###### probably ######
[[ 0.53244859]
[ 0.86008555]
[ 0.68383926]
[ 0.92110789]]
29
5.2層ニューラルネットワークでXOR
30
5.2層ニューラルネットワークでXOR
NOT、ORもしくはANDのような、単純なものは、単層ニューラル
ネットワークで学習できますが、XORは、うまく学習が進みません
(これは、試行数を増やしても改善しません)
これは、XORが、入力層と出力層だけの単層では実現できない
ためです※
※専門用語で言うと、XORは「非線形」という、グラフ上で1本の線では表現できない対象のためです
これに対し、NOT、OR等は、「線形」で、グラフ上で1本の線で表現できるため、単相で実現できます
詳細を知りたい場合は、末尾の「付録:『学習』の中身」をご確認ください
…(略)…
###### classes ######
[[1]
[1]
[1]
[1]]
###### probably ######
[[ 0.50147235]
[ 0.50298554]
[ 0.50041449]
[ 0.50192779]]
31
5.2層ニューラルネットワークでXOR
XORを実現するためには、以下のような、2層のニューラルネット
ワークを構成します
このニューラルネットワークの入出力は、以下表の関係となります
出力yAND
入力x1
入力x2
NOTAND
OR
x2 y
0 0
1 1
0 1
1 0
x1
0
0
1
1
32
5.2層ニューラルネットワークでXOR
「or.py」を元に、下記赤枠を変更し、「xor.py」で保存します
(modelの記述とexpected、試行数を書き換え)
import numpy as np
from keras.models import Sequential
from keras.layers import Dense, Activation
from keras.optimizers import SGD
model = Sequential()
model.add( Dense( input_dim = 2, units = 2 ) )
model.add( Activation( 'sigmoid' ) )
model.add( Dense( units = 1 ) )
model.add( Activation( 'sigmoid' ) )
model.compile( loss = 'binary_crossentropy', optimizer = SGD( lr = 0.1 ) )
input = np.array( [ [ 0, 0 ], [ 0, 1 ], [ 1, 0 ], [ 1, 1 ] ] )
expected = np.array( [ [ 0 ], [ 1 ], [ 1 ], [ 0 ] ] )
model.fit( input, expected, epochs = 800, batch_size = 1 )
print()
classes = model.predict_classes( input, batch_size = 1 )
print( '###### classes ######' )
print( classes )
probably = model.predict_proba( input, batch_size = 1 )
print( '###### probably ######' )
print( probably )
33
5.2層ニューラルネットワークでXOR
以下コマンドで実行します
以下のような結果が返ってくれば、学習・推論は成功です
赤枠部分が、期待通りのXORで推論できています
Epoch 1/800
4/4 [==============================] - 0s - loss: 0.4352
Epoch 2/800
4/4 [==============================] - 0s - loss: 0.4204
…(略)…
Epoch 800/800
4/4 [==============================] - 0s 0us/step - loss: 0.4299
###### classes ######
[[0]
[1]
[1]
[1]]
4/4 [==============================] - 0s 4ms/step
###### probably ######
[[ 0.09015014]
[ 0.64111888]
[ 0.74787629]
[ 0.57065195]]
# python or.py
34
5.2層ニューラルネットワークでXOR
Kerasでは、Sequential()に設定を追加するだけで、ニューラル
ネットワークの層追加が行えます
また、XORの内部構造 (AND、NOT、OR、ANDとその接続)
を特に指定していなくても、XORを判定するロジックが自動生成
された点にも着目してください
つまり、ニューラルネットワークの層を追加し、学習させれば、処理
を一切記述しなくても、ロジックが開発できる、ということです
model = Sequential( [ Dense( input_dim = 2, units = 1 ), Activation( 'sigmoid' ) ] )
model = Sequential()
model.add( Dense( input_dim = 2, units = 2 ) )
model.add( Activation( 'sigmoid' ) )
model.add( Dense( units = 1 ) )
model.add( Activation( 'sigmoid' ) )
35
6.ディープラーニングで時系列分析
36
6.ディープラーニングで時系列分析
ここまでの内容では、ニューラルネットワークの層を追加すれば、
複雑なロジックも自動生成できることが分かりました
ただし、これは「1回の入力が1種類のデータ」という単発のケース
に限られ、「1回の入力がn個の連続するデータ」である場合、
ニューラルネットワークの層の多さだけでは、対応できません
そこで、時系列データに特化したモデルが必要となります
37
6.ディープラーニングで時系列分析
RNN (Recurrent Neural Network) という、時系列に特化
したモデルは、「未来のデータ並びの予測」を実現します
たとえば、単語の並びから、発言した人の感情が、どんな状態に
なっているかを推測する、といった分析に向いています
38
6.ディープラーニングで時系列分析
最初の時系列データは、カンタンな、ノイズ入りsin波にします
import numpy as np
from keras.models import Sequential
from keras.layers import Dense, Activation
from keras.layers.recurrent import LSTM
from keras.optimizers import Adam
from keras.callbacks import EarlyStopping
import matplotlib.pyplot as plt
def sin( x, T = 100 ):
return np.sin( 2.0 * np.pi * x / T )
def noisy_sin( T = 100, ampl = 0.05 ):
x = np.arange( 0, 2 * T + 1 )
noise = ampl * np.random.uniform( low = - 1.0, high = 1.0, size = len( x ) )
return sin( x ) + noise
f = noisy_sin()
plt.figure()
plt.plot( range( 0, len( f ) ), f, color = "b", label = "sin" )
plt.legend()
plt.show()
predict_sin.py
39
6.ディープラーニングで時系列分析
グラフ表示のためのライブラリをインストールします
【macOSのみ】matplotlibを動かすための設定ファイルを以下
コマンドで作成し、Anacondaからターミナルを起動し直します
以下で、ノイズ入りsin波をグラフ表示します
# pip install matplotlib
# python predict_sin.py
# echo backend : TkAgg > ~/.matplotlib/matplotlibrc
40
6.ディープラーニングで時系列分析
グラフを確認したら、グラフ表示はコメントアウトします
…
'''
plt.figure()
plt.plot( range( 0, len( f ) ), f, color = "b", label = "sin" )
plt.legend()
plt.show()
'''
predict_sin.py
41
6.ディープラーニングで時系列分析
(続き) RNN用にデータを分割し、モデルを構築します
…
def build_dataset( inputs, n_prev = 100 ):
input = []
expected = []
maxlen = 25
for i in range( len( inputs ) - maxlen ):
input.append( inputs[ i: i + maxlen ] )
expected.append( inputs[ i + maxlen ] )
re_input = np.array( input ).reshape( len( input ), maxlen, 1 )
re_expected = np.array( expected ).reshape( len( input ), 1 )
return re_input, re_expected
x, y = build_dataset( f )
length_of_sequence = x.shape[ 1 ]
in_out_neurons = 1
n_hidden = 300
model = Sequential()
model.add( LSTM( n_hidden, batch_input_shape =
( None, length_of_sequence, in_out_neurons ), return_sequences = False ) )
model.add( Dense( in_out_neurons ) )
model.add( Activation( "linear" ) )
optimizer = Adam( lr = 0.001 )
model.compile( loss = "mean_squared_error", optimizer = optimizer )
…
predict_sin.py
42
6.ディープラーニングで時系列分析
(続き) 学習させ、未来データを予測し、グラフ表示します
…
model.fit( x, y,
batch_size = 500,
epochs = 80,
validation_split = 0.1
)
future_test = x[ 175 ].T
time_length = future_test.shape[ 1 ]
future_result = np.empty( ( 0 ) )
for step2 in range( 400 ):
test_data = np.reshape( future_test, ( 1, time_length, 1 ) )
batch_predict = model.predict( test_data )
future_test = np.delete( future_test, 0 )
future_test = np.append( future_test, batch_predict )
future_result = np.append( future_result, batch_predict )
predicted = model.predict( x )
plt.figure()
plt.plot( range( 0, len( f ) ), f, color = "b", label = "sin" )
plt.plot( range( 25, len( predicted ) + 25 ), predicted, color = "r", label = "predict" )
plt.plot( range( 0 + len( f ), len( future_result ) + len( f ) ), future_result, color = "g", label = "future" )
plt.legend()
plt.show()
predict_sin.py
43
6.ディープラーニングで時系列分析
予測した未来データは、緑のグラフで、元データ (青) のsin波を
再現しています
なお、学習時データ (赤) を見ると、元データと比べ、若干振幅
が縮んで学習しているため、未来データも徐々に縮んでいます
(ノイズがランダムに出ている影響)
44
7.ロジックを組まない予測の世界へ
45
7.ロジックを組まない予測の世界へ
今回は、論理演算やカンタンな時系列データの特徴を解析し、
予測を行うKerasアプリ開発についてご紹介しました
Kerasによるディープラーニングが「そこまで難しく無いかも?」と
思っていただけたら、この入門としては大成功です
論理演算も、時系列データも、パターンが読み取れる単純な
ものだったため、物足りないかも知れませんが、ロジック作成無で
予測できた点にパラダイムシフトを感じていただけたら幸いです
より実践的な分析 (マーケティングデータ等) は、ここで学んだこと
を応用し、この後のシリーズにて扱っていきます
それでは、AI・MLプログラミングライフをエンジョイしてください!
46
8.付録:「学習」の中身
47
8.付録:「学習」の中身
小規模なニューラルネットワークで「学習」のプロセスを学びます
最小は、入力が1つ、出力が1つとなります
たとえば、入力x (範囲は0~1) を、そのまま出力yとする場合、
以下表のような入出力の関係となり、学習する必要は無いです
これを式で表すと、以下の通りです
y = x
x y
0 0
1 1
入力x 出力y
48
8.付録:「学習」の中身
次は、入力の0/1を反転させるニューラルネットワークです
以下表のような入出力の関係となります
この反転を実現する式は、以下のようになります
これをニューラルネットワーク上に書くと、以下のようになります
入力x 出力y
y = -x + 1
乗算-1
加算+1
NOT
入力x 出力y
入力x 出力y
0 1
1 0
NOT
49
8.付録:「学習」の中身
ニューラルネットワーク上の「乗算」「加算」を知らない前提として、
「乗算」と「加算」を変数にした場合、以下の式となります
反転を実現するaとbを割り出すために、以下3つの変数を導入
します
① 「t」・・・期待する正解
② 「da」・・・aを正解に近づける幅
③ 「db」・・・bを正解に近づける幅
「tとyの差」でaとbを補正し、yが期待通りになるまで、つまり、
「aとbが正解を出せるようになる」まで、補正を繰り返します
y = ax + b
50
8.付録:「学習」の中身
「tとyの差」でaとbを補正する式は、以下の通りです
※この式の意味は、今のところ、理解できなくてもOKです
この式で補正される、aとbは、以下の通りの式となります
補正の過程は、以下の通りで、「t - y」が0となったら完了です
da = ( t - y ) x
db = ( t - y )
x t
0 1
1 0
試行数
1
2
0 1
1 0
3
4
0 15
a b
0 0
0 1
-1 0
-1 1
-1 1
y t - y
0 1
1 -1
0 1
0 0
1 0
da db
0 1
-1 -1
0 1
0 0
0 0
a = a + da
b = b + db
⊕
⊕
51
8.付録:「学習」の中身
このようにして、以下の式が導出できます
この補正アプローチを「誤り訂正学習法」と呼び、ニューラルネット
ワークにおける「学習」と言えば、この手法のことを指します
ニューラルネットワークに対する入力が、「1つ」から「2つ以上」に
増えても、ニューラルネットワーク層自体が増えても、この学習の
手法自体がやることは基本的に同じで、「乗算」と「加算」の組み
合わせの補正を期待値にマッチするまで繰り返すだけです
y = ax + b
= -x + 1
52
ご清聴ありがとうございます

More Related Content

What's hot

機械学習を用いた予測モデル構築・評価
機械学習を用いた予測モデル構築・評価機械学習を用いた予測モデル構築・評価
機械学習を用いた予測モデル構築・評価Shintaro Fukushima
 
Jupyter NotebookとChainerで楽々Deep Learning
Jupyter NotebookとChainerで楽々Deep LearningJupyter NotebookとChainerで楽々Deep Learning
Jupyter NotebookとChainerで楽々Deep LearningJun-ya Norimatsu
 
TensorFlowの使い方(in Japanese)
TensorFlowの使い方(in Japanese)TensorFlowの使い方(in Japanese)
TensorFlowの使い方(in Japanese)Toshihiko Yamakami
 
LINQ 概要 + 結構便利な LINQ to XML
LINQ 概要 + 結構便利な LINQ to XMLLINQ 概要 + 結構便利な LINQ to XML
LINQ 概要 + 結構便利な LINQ to XMLShinichiAoyagi
 
[第2版]Python機械学習プログラミング 第8章
[第2版]Python機械学習プログラミング 第8章[第2版]Python機械学習プログラミング 第8章
[第2版]Python機械学習プログラミング 第8章Haruki Eguchi
 
Metaprogramming in JuliaLang
Metaprogramming in JuliaLangMetaprogramming in JuliaLang
Metaprogramming in JuliaLangYuichi Motoyama
 
PHP, JavaScriptプログラマのためのC#入門
PHP, JavaScriptプログラマのためのC#入門PHP, JavaScriptプログラマのためのC#入門
PHP, JavaScriptプログラマのためのC#入門Tomo Mizoe
 
[機械学習]文章のクラス分類
[機械学習]文章のクラス分類[機械学習]文章のクラス分類
[機械学習]文章のクラス分類Tetsuya Hasegawa
 
Pythonで始めるDropboxAPI
Pythonで始めるDropboxAPIPythonで始めるDropboxAPI
Pythonで始めるDropboxAPIDaisuke Igarashi
 
Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~Yasutomo Kawanishi
 
Chainer の Trainer 解説と NStepLSTM について
Chainer の Trainer 解説と NStepLSTM についてChainer の Trainer 解説と NStepLSTM について
Chainer の Trainer 解説と NStepLSTM についてRetrieva inc.
 
統計解析言語Rにおける大規模データ管理のためのboost.interprocessの活用
統計解析言語Rにおける大規模データ管理のためのboost.interprocessの活用統計解析言語Rにおける大規模データ管理のためのboost.interprocessの活用
統計解析言語Rにおける大規模データ管理のためのboost.interprocessの活用Shintaro Fukushima
 
Uart受信設計2013
Uart受信設計2013Uart受信設計2013
Uart受信設計2013Kiyoshi Ogawa
 
Enjoy handwritten digits recognition AI !!
Enjoy handwritten digits recognition AI !!Enjoy handwritten digits recognition AI !!
Enjoy handwritten digits recognition AI !!KAIKenzo
 

What's hot (20)

機械学習を用いた予測モデル構築・評価
機械学習を用いた予測モデル構築・評価機械学習を用いた予測モデル構築・評価
機械学習を用いた予測モデル構築・評価
 
boost tour 1.48.0 all
boost tour 1.48.0 allboost tour 1.48.0 all
boost tour 1.48.0 all
 
講座Java入門
講座Java入門講座Java入門
講座Java入門
 
Boost Tour 1.50.0 All
Boost Tour 1.50.0 AllBoost Tour 1.50.0 All
Boost Tour 1.50.0 All
 
Jupyter NotebookとChainerで楽々Deep Learning
Jupyter NotebookとChainerで楽々Deep LearningJupyter NotebookとChainerで楽々Deep Learning
Jupyter NotebookとChainerで楽々Deep Learning
 
TensorFlowの使い方(in Japanese)
TensorFlowの使い方(in Japanese)TensorFlowの使い方(in Japanese)
TensorFlowの使い方(in Japanese)
 
LINQ 概要 + 結構便利な LINQ to XML
LINQ 概要 + 結構便利な LINQ to XMLLINQ 概要 + 結構便利な LINQ to XML
LINQ 概要 + 結構便利な LINQ to XML
 
[第2版]Python機械学習プログラミング 第8章
[第2版]Python機械学習プログラミング 第8章[第2版]Python機械学習プログラミング 第8章
[第2版]Python機械学習プログラミング 第8章
 
Ruby test double
Ruby test doubleRuby test double
Ruby test double
 
Metaprogramming in JuliaLang
Metaprogramming in JuliaLangMetaprogramming in JuliaLang
Metaprogramming in JuliaLang
 
PHP, JavaScriptプログラマのためのC#入門
PHP, JavaScriptプログラマのためのC#入門PHP, JavaScriptプログラマのためのC#入門
PHP, JavaScriptプログラマのためのC#入門
 
R高速化
R高速化R高速化
R高速化
 
Juliaで並列計算
Juliaで並列計算Juliaで並列計算
Juliaで並列計算
 
[機械学習]文章のクラス分類
[機械学習]文章のクラス分類[機械学習]文章のクラス分類
[機械学習]文章のクラス分類
 
Pythonで始めるDropboxAPI
Pythonで始めるDropboxAPIPythonで始めるDropboxAPI
Pythonで始めるDropboxAPI
 
Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~
 
Chainer の Trainer 解説と NStepLSTM について
Chainer の Trainer 解説と NStepLSTM についてChainer の Trainer 解説と NStepLSTM について
Chainer の Trainer 解説と NStepLSTM について
 
統計解析言語Rにおける大規模データ管理のためのboost.interprocessの活用
統計解析言語Rにおける大規模データ管理のためのboost.interprocessの活用統計解析言語Rにおける大規模データ管理のためのboost.interprocessの活用
統計解析言語Rにおける大規模データ管理のためのboost.interprocessの活用
 
Uart受信設計2013
Uart受信設計2013Uart受信設計2013
Uart受信設計2013
 
Enjoy handwritten digits recognition AI !!
Enjoy handwritten digits recognition AI !!Enjoy handwritten digits recognition AI !!
Enjoy handwritten digits recognition AI !!
 

Viewers also liked

Elixir入門「第5回:Visualixirで見るマルチプロセス」
Elixir入門「第5回:Visualixirで見るマルチプロセス」Elixir入門「第5回:Visualixirで見るマルチプロセス」
Elixir入門「第5回:Visualixirで見るマルチプロセス」fukuoka.ex
 
AI入門「第1回:AIの歴史とTensorFlow」
AI入門「第1回:AIの歴史とTensorFlow」AI入門「第1回:AIの歴史とTensorFlow」
AI入門「第1回:AIの歴史とTensorFlow」fukuoka.ex
 
Elixir入門「第3回:Phoenix 1.3で高速webアプリ & REST APIアプリをサクッと書いてみる」
Elixir入門「第3回:Phoenix 1.3で高速webアプリ & REST APIアプリをサクッと書いてみる」Elixir入門「第3回:Phoenix 1.3で高速webアプリ & REST APIアプリをサクッと書いてみる」
Elixir入門「第3回:Phoenix 1.3で高速webアプリ & REST APIアプリをサクッと書いてみる」fukuoka.ex
 
Dots deep learning部_20161221
Dots deep learning部_20161221Dots deep learning部_20161221
Dots deep learning部_20161221陽平 山口
 
Atlassian Japan Forum 2017 The Information Ageの現実 なぜ組織が構造改革を進めなければならないのか
Atlassian Japan Forum 2017 The Information Ageの現実 なぜ組織が構造改革を進めなければならないのかAtlassian Japan Forum 2017 The Information Ageの現実 なぜ組織が構造改革を進めなければならないのか
Atlassian Japan Forum 2017 The Information Ageの現実 なぜ組織が構造改革を進めなければならないのかアトラシアン株式会社
 
ニューラルネットワークの仕組みを学ぶ 20170623
ニューラルネットワークの仕組みを学ぶ 20170623ニューラルネットワークの仕組みを学ぶ 20170623
ニューラルネットワークの仕組みを学ぶ 20170623Hiroki Takahashi
 
古典的ゲームAIを用いたAlphaGo解説
古典的ゲームAIを用いたAlphaGo解説古典的ゲームAIを用いたAlphaGo解説
古典的ゲームAIを用いたAlphaGo解説suckgeun lee
 
【2017年】ディープラーニングのフレームワーク比較
【2017年】ディープラーニングのフレームワーク比較【2017年】ディープラーニングのフレームワーク比較
【2017年】ディープラーニングのフレームワーク比較Ryota Suzuki
 
[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation
[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation
[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video GenerationDeep Learning JP
 
AlphaGo Zero 解説
AlphaGo Zero 解説AlphaGo Zero 解説
AlphaGo Zero 解説suckgeun lee
 
Kerasで深層学習を実践する
Kerasで深層学習を実践するKerasで深層学習を実践する
Kerasで深層学習を実践するKazuaki Tanida
 
Tokyo webmining 2017-10-28
Tokyo webmining 2017-10-28Tokyo webmining 2017-10-28
Tokyo webmining 2017-10-28Kimikazu Kato
 
Pythonを使った機械学習の学習
Pythonを使った機械学習の学習Pythonを使った機械学習の学習
Pythonを使った機械学習の学習Kimikazu Kato
 
AI and Machine Learning Demystified by Carol Smith at Midwest UX 2017
AI and Machine Learning Demystified by Carol Smith at Midwest UX 2017AI and Machine Learning Demystified by Carol Smith at Midwest UX 2017
AI and Machine Learning Demystified by Carol Smith at Midwest UX 2017Carol Smith
 

Viewers also liked (15)

Elixir入門「第5回:Visualixirで見るマルチプロセス」
Elixir入門「第5回:Visualixirで見るマルチプロセス」Elixir入門「第5回:Visualixirで見るマルチプロセス」
Elixir入門「第5回:Visualixirで見るマルチプロセス」
 
AI入門「第1回:AIの歴史とTensorFlow」
AI入門「第1回:AIの歴史とTensorFlow」AI入門「第1回:AIの歴史とTensorFlow」
AI入門「第1回:AIの歴史とTensorFlow」
 
Elixir入門「第3回:Phoenix 1.3で高速webアプリ & REST APIアプリをサクッと書いてみる」
Elixir入門「第3回:Phoenix 1.3で高速webアプリ & REST APIアプリをサクッと書いてみる」Elixir入門「第3回:Phoenix 1.3で高速webアプリ & REST APIアプリをサクッと書いてみる」
Elixir入門「第3回:Phoenix 1.3で高速webアプリ & REST APIアプリをサクッと書いてみる」
 
Dots deep learning部_20161221
Dots deep learning部_20161221Dots deep learning部_20161221
Dots deep learning部_20161221
 
Atlassian Japan Forum 2017 The Information Ageの現実 なぜ組織が構造改革を進めなければならないのか
Atlassian Japan Forum 2017 The Information Ageの現実 なぜ組織が構造改革を進めなければならないのかAtlassian Japan Forum 2017 The Information Ageの現実 なぜ組織が構造改革を進めなければならないのか
Atlassian Japan Forum 2017 The Information Ageの現実 なぜ組織が構造改革を進めなければならないのか
 
ニューラルネットワークの仕組みを学ぶ 20170623
ニューラルネットワークの仕組みを学ぶ 20170623ニューラルネットワークの仕組みを学ぶ 20170623
ニューラルネットワークの仕組みを学ぶ 20170623
 
古典的ゲームAIを用いたAlphaGo解説
古典的ゲームAIを用いたAlphaGo解説古典的ゲームAIを用いたAlphaGo解説
古典的ゲームAIを用いたAlphaGo解説
 
【2017年】ディープラーニングのフレームワーク比較
【2017年】ディープラーニングのフレームワーク比較【2017年】ディープラーニングのフレームワーク比較
【2017年】ディープラーニングのフレームワーク比較
 
[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation
[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation
[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation
 
AlphaGo Zero 解説
AlphaGo Zero 解説AlphaGo Zero 解説
AlphaGo Zero 解説
 
Kerasで深層学習を実践する
Kerasで深層学習を実践するKerasで深層学習を実践する
Kerasで深層学習を実践する
 
Pycon2017
Pycon2017Pycon2017
Pycon2017
 
Tokyo webmining 2017-10-28
Tokyo webmining 2017-10-28Tokyo webmining 2017-10-28
Tokyo webmining 2017-10-28
 
Pythonを使った機械学習の学習
Pythonを使った機械学習の学習Pythonを使った機械学習の学習
Pythonを使った機械学習の学習
 
AI and Machine Learning Demystified by Carol Smith at Midwest UX 2017
AI and Machine Learning Demystified by Carol Smith at Midwest UX 2017AI and Machine Learning Demystified by Carol Smith at Midwest UX 2017
AI and Machine Learning Demystified by Carol Smith at Midwest UX 2017
 

Similar to 【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」

はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep LearningTadaichiro Nakano
 
Azure Machine Learning Services 概要 - 2019年3月版
Azure Machine Learning Services 概要 - 2019年3月版Azure Machine Learning Services 概要 - 2019年3月版
Azure Machine Learning Services 概要 - 2019年3月版Daiyu Hatakeyama
 
ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装Ryosuke Okuta
 
2018/06/23 Sony"s deep learning software and the latest information
2018/06/23 Sony"s deep learning software and the latest information2018/06/23 Sony"s deep learning software and the latest information
2018/06/23 Sony"s deep learning software and the latest informationSony Network Communications Inc.
 
mxnetで頑張る深層学習
mxnetで頑張る深層学習mxnetで頑張る深層学習
mxnetで頑張る深層学習Takashi Kitano
 
関数型言語&形式的手法セミナー(3)
関数型言語&形式的手法セミナー(3)関数型言語&形式的手法セミナー(3)
関数型言語&形式的手法セミナー(3)啓 小笠原
 
Azure Machine Learning Services 概要 - 2019年2月版
Azure Machine Learning Services 概要 - 2019年2月版Azure Machine Learning Services 概要 - 2019年2月版
Azure Machine Learning Services 概要 - 2019年2月版Daiyu Hatakeyama
 
2019年度若手技術者向け講座 インデックス
2019年度若手技術者向け講座 インデックス2019年度若手技術者向け講座 インデックス
2019年度若手技術者向け講座 インデックスkeki3
 
Chugoku db 17th-postgresql-9.6
Chugoku db 17th-postgresql-9.6Chugoku db 17th-postgresql-9.6
Chugoku db 17th-postgresql-9.6Toshi Harada
 
Spanner移行について本気出して考えてみた
Spanner移行について本気出して考えてみたSpanner移行について本気出して考えてみた
Spanner移行について本気出して考えてみたtechgamecollege
 
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用de:code 2017
 
「機械学習とは?」から始める Deep learning実践入門
「機械学習とは?」から始める Deep learning実践入門「機械学習とは?」から始める Deep learning実践入門
「機械学習とは?」から始める Deep learning実践入門Hideto Masuoka
 
Nds meetup8 lt
Nds meetup8 ltNds meetup8 lt
Nds meetup8 ltushiboy
 
2020/11/19 Global AI on Tour - Toyama プログラマーのための機械学習入門
2020/11/19 Global AI on Tour - Toyama プログラマーのための機械学習入門2020/11/19 Global AI on Tour - Toyama プログラマーのための機械学習入門
2020/11/19 Global AI on Tour - Toyama プログラマーのための機械学習入門Daiyu Hatakeyama
 
第9回 大規模データを用いたデータフレーム操作実習(3)
第9回 大規模データを用いたデータフレーム操作実習(3)第9回 大規模データを用いたデータフレーム操作実習(3)
第9回 大規模データを用いたデータフレーム操作実習(3)Wataru Shito
 
RailsエンジニアのためのSQLチューニング速習会
RailsエンジニアのためのSQLチューニング速習会RailsエンジニアのためのSQLチューニング速習会
RailsエンジニアのためのSQLチューニング速習会Nao Minami
 
Hadoop基盤上のETL構築実践例 ~多様なデータをどう扱う?~
Hadoop基盤上のETL構築実践例 ~多様なデータをどう扱う?~Hadoop基盤上のETL構築実践例 ~多様なデータをどう扱う?~
Hadoop基盤上のETL構築実践例 ~多様なデータをどう扱う?~Sotaro Kimura
 
ECMAScript6による関数型プログラミング
ECMAScript6による関数型プログラミングECMAScript6による関数型プログラミング
ECMAScript6による関数型プログラミングTanUkkii
 
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...de:code 2017
 

Similar to 【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」 (20)

はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep Learning
 
Azure Machine Learning Services 概要 - 2019年3月版
Azure Machine Learning Services 概要 - 2019年3月版Azure Machine Learning Services 概要 - 2019年3月版
Azure Machine Learning Services 概要 - 2019年3月版
 
ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装
 
2018/06/23 Sony"s deep learning software and the latest information
2018/06/23 Sony"s deep learning software and the latest information2018/06/23 Sony"s deep learning software and the latest information
2018/06/23 Sony"s deep learning software and the latest information
 
mxnetで頑張る深層学習
mxnetで頑張る深層学習mxnetで頑張る深層学習
mxnetで頑張る深層学習
 
関数型言語&形式的手法セミナー(3)
関数型言語&形式的手法セミナー(3)関数型言語&形式的手法セミナー(3)
関数型言語&形式的手法セミナー(3)
 
Azure Machine Learning Services 概要 - 2019年2月版
Azure Machine Learning Services 概要 - 2019年2月版Azure Machine Learning Services 概要 - 2019年2月版
Azure Machine Learning Services 概要 - 2019年2月版
 
2019年度若手技術者向け講座 インデックス
2019年度若手技術者向け講座 インデックス2019年度若手技術者向け講座 インデックス
2019年度若手技術者向け講座 インデックス
 
Chugoku db 17th-postgresql-9.6
Chugoku db 17th-postgresql-9.6Chugoku db 17th-postgresql-9.6
Chugoku db 17th-postgresql-9.6
 
Spanner移行について本気出して考えてみた
Spanner移行について本気出して考えてみたSpanner移行について本気出して考えてみた
Spanner移行について本気出して考えてみた
 
Xtext 紹介
Xtext 紹介Xtext 紹介
Xtext 紹介
 
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
 
「機械学習とは?」から始める Deep learning実践入門
「機械学習とは?」から始める Deep learning実践入門「機械学習とは?」から始める Deep learning実践入門
「機械学習とは?」から始める Deep learning実践入門
 
Nds meetup8 lt
Nds meetup8 ltNds meetup8 lt
Nds meetup8 lt
 
2020/11/19 Global AI on Tour - Toyama プログラマーのための機械学習入門
2020/11/19 Global AI on Tour - Toyama プログラマーのための機械学習入門2020/11/19 Global AI on Tour - Toyama プログラマーのための機械学習入門
2020/11/19 Global AI on Tour - Toyama プログラマーのための機械学習入門
 
第9回 大規模データを用いたデータフレーム操作実習(3)
第9回 大規模データを用いたデータフレーム操作実習(3)第9回 大規模データを用いたデータフレーム操作実習(3)
第9回 大規模データを用いたデータフレーム操作実習(3)
 
RailsエンジニアのためのSQLチューニング速習会
RailsエンジニアのためのSQLチューニング速習会RailsエンジニアのためのSQLチューニング速習会
RailsエンジニアのためのSQLチューニング速習会
 
Hadoop基盤上のETL構築実践例 ~多様なデータをどう扱う?~
Hadoop基盤上のETL構築実践例 ~多様なデータをどう扱う?~Hadoop基盤上のETL構築実践例 ~多様なデータをどう扱う?~
Hadoop基盤上のETL構築実践例 ~多様なデータをどう扱う?~
 
ECMAScript6による関数型プログラミング
ECMAScript6による関数型プログラミングECMAScript6による関数型プログラミング
ECMAScript6による関数型プログラミング
 
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
 

More from fukuoka.ex

Elixir入門「第1回:パターンマッチ&パイプでJSONパースアプリをサクっと書いてみる」
Elixir入門「第1回:パターンマッチ&パイプでJSONパースアプリをサクっと書いてみる」Elixir入門「第1回:パターンマッチ&パイプでJSONパースアプリをサクっと書いてみる」
Elixir入門「第1回:パターンマッチ&パイプでJSONパースアプリをサクっと書いてみる」fukuoka.ex
 
Elixir入門「第6回:Elixirはtry…catchを書かない~障害対応のパラダイムシフト~」
Elixir入門「第6回:Elixirはtry…catchを書かない~障害対応のパラダイムシフト~」Elixir入門「第6回:Elixirはtry…catchを書かない~障害対応のパラダイムシフト~」
Elixir入門「第6回:Elixirはtry…catchを書かない~障害対応のパラダイムシフト~」fukuoka.ex
 
重力プログラミング入門「第1回:地球の重力下で人工衛星を公転軌道に乗せる」
重力プログラミング入門「第1回:地球の重力下で人工衛星を公転軌道に乗せる」重力プログラミング入門「第1回:地球の重力下で人工衛星を公転軌道に乗せる」
重力プログラミング入門「第1回:地球の重力下で人工衛星を公転軌道に乗せる」fukuoka.ex
 
やや関数型を意識した風Elixir/Phoenixご紹介
やや関数型を意識した風Elixir/Phoenixご紹介やや関数型を意識した風Elixir/Phoenixご紹介
やや関数型を意識した風Elixir/Phoenixご紹介fukuoka.ex
 
AI入門「第2回:Scala/Spark/Mahoutでレコメンドエンジンを作る」
AI入門「第2回:Scala/Spark/Mahoutでレコメンドエンジンを作る」AI入門「第2回:Scala/Spark/Mahoutでレコメンドエンジンを作る」
AI入門「第2回:Scala/Spark/Mahoutでレコメンドエンジンを作る」fukuoka.ex
 
Elixir入門「第2回:PC間で通信するアプリをサクっと書いてみる」
Elixir入門「第2回:PC間で通信するアプリをサクっと書いてみる」Elixir入門「第2回:PC間で通信するアプリをサクっと書いてみる」
Elixir入門「第2回:PC間で通信するアプリをサクっと書いてみる」fukuoka.ex
 
Elixir入門「第1回:パターンマッチ&パイプでJSONパースアプリをサクっと書いてみる」【旧版】※新版あります
Elixir入門「第1回:パターンマッチ&パイプでJSONパースアプリをサクっと書いてみる」【旧版】※新版ありますElixir入門「第1回:パターンマッチ&パイプでJSONパースアプリをサクっと書いてみる」【旧版】※新版あります
Elixir入門「第1回:パターンマッチ&パイプでJSONパースアプリをサクっと書いてみる」【旧版】※新版ありますfukuoka.ex
 
Elixir入門「第3回:Phoenix 1.2で高速Webアプリ & REST APIをサクッと書いてみる」【旧版】※新版あります
Elixir入門「第3回:Phoenix 1.2で高速Webアプリ & REST APIをサクッと書いてみる」【旧版】※新版ありますElixir入門「第3回:Phoenix 1.2で高速Webアプリ & REST APIをサクッと書いてみる」【旧版】※新版あります
Elixir入門「第3回:Phoenix 1.2で高速Webアプリ & REST APIをサクッと書いてみる」【旧版】※新版ありますfukuoka.ex
 

More from fukuoka.ex (8)

Elixir入門「第1回:パターンマッチ&パイプでJSONパースアプリをサクっと書いてみる」
Elixir入門「第1回:パターンマッチ&パイプでJSONパースアプリをサクっと書いてみる」Elixir入門「第1回:パターンマッチ&パイプでJSONパースアプリをサクっと書いてみる」
Elixir入門「第1回:パターンマッチ&パイプでJSONパースアプリをサクっと書いてみる」
 
Elixir入門「第6回:Elixirはtry…catchを書かない~障害対応のパラダイムシフト~」
Elixir入門「第6回:Elixirはtry…catchを書かない~障害対応のパラダイムシフト~」Elixir入門「第6回:Elixirはtry…catchを書かない~障害対応のパラダイムシフト~」
Elixir入門「第6回:Elixirはtry…catchを書かない~障害対応のパラダイムシフト~」
 
重力プログラミング入門「第1回:地球の重力下で人工衛星を公転軌道に乗せる」
重力プログラミング入門「第1回:地球の重力下で人工衛星を公転軌道に乗せる」重力プログラミング入門「第1回:地球の重力下で人工衛星を公転軌道に乗せる」
重力プログラミング入門「第1回:地球の重力下で人工衛星を公転軌道に乗せる」
 
やや関数型を意識した風Elixir/Phoenixご紹介
やや関数型を意識した風Elixir/Phoenixご紹介やや関数型を意識した風Elixir/Phoenixご紹介
やや関数型を意識した風Elixir/Phoenixご紹介
 
AI入門「第2回:Scala/Spark/Mahoutでレコメンドエンジンを作る」
AI入門「第2回:Scala/Spark/Mahoutでレコメンドエンジンを作る」AI入門「第2回:Scala/Spark/Mahoutでレコメンドエンジンを作る」
AI入門「第2回:Scala/Spark/Mahoutでレコメンドエンジンを作る」
 
Elixir入門「第2回:PC間で通信するアプリをサクっと書いてみる」
Elixir入門「第2回:PC間で通信するアプリをサクっと書いてみる」Elixir入門「第2回:PC間で通信するアプリをサクっと書いてみる」
Elixir入門「第2回:PC間で通信するアプリをサクっと書いてみる」
 
Elixir入門「第1回:パターンマッチ&パイプでJSONパースアプリをサクっと書いてみる」【旧版】※新版あります
Elixir入門「第1回:パターンマッチ&パイプでJSONパースアプリをサクっと書いてみる」【旧版】※新版ありますElixir入門「第1回:パターンマッチ&パイプでJSONパースアプリをサクっと書いてみる」【旧版】※新版あります
Elixir入門「第1回:パターンマッチ&パイプでJSONパースアプリをサクっと書いてみる」【旧版】※新版あります
 
Elixir入門「第3回:Phoenix 1.2で高速Webアプリ & REST APIをサクッと書いてみる」【旧版】※新版あります
Elixir入門「第3回:Phoenix 1.2で高速Webアプリ & REST APIをサクッと書いてみる」【旧版】※新版ありますElixir入門「第3回:Phoenix 1.2で高速Webアプリ & REST APIをサクッと書いてみる」【旧版】※新版あります
Elixir入門「第3回:Phoenix 1.2で高速Webアプリ & REST APIをサクッと書いてみる」【旧版】※新版あります
 

【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」