SlideShare a Scribd company logo
1 of 69
Download to read offline
深度學習實作上的

各種卡關
政治⼤學應⽤數學系 蔡炎⿓
about me
政治⼤學應⽤數學系副教授
政治⼤學「數理資訊學程」召集⼈
美國爾灣加州⼤學數學博⼠
上個世紀開始研究神經網路
深度學習的理論並不是太複雜, ⽽
現在⼜有 Keras 等⽅便⼯具可以讓
你把時間花在思考解決問題的⽅式,
⽽不是花很多時間學習、撰寫程式。
可是當你實作時, 會發現有種種卡
關、有不少⼩問題要克服。
好消息是...
這也讓電腦無法完全
取代我們的⼯作!
深度學習就是學個函數
f輸⼊ 輸出
把我們想要問的問題, 化成函數。
関数や微分積分を勉強することに
よってものの考え⽅や論理の進め⽅
を学び、それによって正しい判断を
する⼒を⾝につけることができる。
“
”《先に⽣まれただけの僕 第三話》
f(⽇期 x) = 某股票 x 當天的收盤價 
[例⼦] 股票點數預測
這可能不是最好的描述法。也許我們比
較想要⽤用之前的情況預測我們的想知道
的那天。也就類似是上⾯面這樣的函數。
假設我們把⼈分成若⼲型, 例如 9 型 (九型⼈
格), 16 型 (Myers-Briggs) 等等。於是我們想
看這是哪⼀型的⼈, 就是找這個函數:
[例⼦] 你是那種類型的⼈?
你怎麼「輸入」⼀一個⼈人呢? 在此例例通常
是經過⼼心理理測驗, 得到⼀一串串數字, 那些
數字我們就可以代表這個⼈人。
f(某⼈ x) = x 這個⼈的⼈格類型 
f(x, y) = x, y 這兩個⼈的速配指數 
[例⼦] 速配指數
我們再度碰到要把⼈人變成⼀一串串描述他的
數字。很多可以⽤用, 比如星座、⾎血型、
興趣、學歷等等我們都可想辦法轉數字。
f( ) = 6
[例⼦] 圖形辨識
其實這裡有兩兩個問題要討論:
1. 輸入圖形很⼤大的時候呢?
2. 輸出是 0.2, 代表什什麼呢?
28x28
暗⿊魔法
Hidden Layer Output LayerInput Layer
碩⼠論⽂就做神經網路,
結果覺得這沒有⽤數學的
話, 這⿊盒⼦不開不知在
做什麼。
於是決定博⼠念純數學。
⼗年前開始在政⼤主持數
理資訊學程, ⽤現代的術語,
就是帶同學⽤ Python 做
數據分析。
本⾝研究主題還是純數學。
有點困擾的是正課、研究、
帶研究⽣、帶數理資訊學
程同學寫程式, 基本上是完
全分開的。
2016 年 5 ⽉的
TWSIAM, 聽台⼤李宏
毅⽼師介紹 Deep
Learning, 覺得很有意
思, 開始投⼊研究。
神經網路的基本概念
標準 NN CNN RNN
Reinforcement Learning GAN
VAE
Capsule
?
重要的深度學習架構
標準的 Neural Network
每個神經元動作基本上是⼀樣的!
每個神經元就是接受
若⼲個輸⼊, 然後送出
⼀個輸出。
輸⼊做 weighted sum。
wi xi
i =1
3
∑
加上 bias
wi xi
i =1
3
∑ + b
再 apply activation
function 即為輸出。
ϕ( wi xi
i =1
3
∑ + b) = h
幾個 activation functions
ReLU Sigmoid Gaussian
當⼀個神經網路結構決定、activation functions 也決
定, 那可以調的就是 weights, biases。我們把這些參數
的集合叫 , 每⼀個 就定義⼀個函數, 我們把它看成⼀個
集合。
固定結構神經網路的函數空間
我們就是要找
使得  和⽬標函數最接近
⼀層 hidden layer 的神經網路就是
universal approximator!
filter 1
filter 2
input
每個 filter 看⼀個特徵, 掃過每⼀個
點, 紀錄該點附近的「特徵強度」。
Convolutional Neural Network (CNN)
Recurrent Neural Network (RNN)
ht
1
= σ (w1
xt
1
+ w2
xt
2
+ w3
h3
t−1
+ w4
h4
t−1
+ b1
)
會加⼊上⼀次的
outputs 當這次的
inputs。
建⽴第⼀個神經網路
無⽌盡的評估
就是不願意試
資料輸⼊問題
資料輸⼊問題
這其實是件⼩事, 但往往我們需要花
些時間去做對。
⽐如只有⼀個 feature 的輸⼊...
x_train = [x1, x2, …]
資料輸⼊問題
這其實是件⼩事, 但往往我們需要花
些時間去做對。
結果這樣才正確!
x_train = [[x1], [x2], …]
就是不願意試
我教會很多⼈「理論上」會深度學
習, 但就是沒有⾃⼰動⼿「⼀個」⾃
⼰的 model...
無⽌盡的評估
Keras 太簡單!
要直接⽤ TensorFlow?
聽說 PyTorch 更好!
MXnet? CNTK?
Karras-Aila-Laine-Lehtinen
NVIDIA 團隊最近很有名的⽂章
⽤ Theano (不是快退出了), Python 2, 單 GPU
Progressive Growing of GANs for Improved
Quality, Stability, and Variation
重回神經網路的第⼀個例⼦
資料⾃⼰⽣, 就⽤
y = sin(x) + o.4x + 0.3× noise
1 維輸⼊, 1 維輸出
200 筆訓練資料
2 層 hidden layers
每層 20 個神經元
activation function ⽤ sigmoid
隨便做都會成啦!
信⼼滿滿
現場直播
深受打擊
MNIST 是機器學習的果蠅!
—Geoffrey Hinton
“ ”
⽼師結果很差
要相信神經網路
⼀定學得會!
—東華⼤學魏澤⼈⽼師
“ ”
xk+1
, yk+1xk
, yk
x1
, y1 xn
, yn
訓練資料 測試資料
資料區分為兩部份
實際拿去訓練 測試訓練結果
訓練資料學不成
增加學習次數 (epoch)
更換優化⽅式
⽤「複雜」⼀點的神經網路架構
有可能的話增加學習資料
重新問你的問題
learning rate 改⼩
訓練資料誤差⼤不要跳到下⼀步!
測試資料學不成
使⽤ dropout
regulation (限制參數⼤⼩)
簡化你的神經網路
問個好問題
我們的 model 很少第
⼀次就成功。
—清華⼤學陳宜欣⽼師
“ ”
孫瑄正、邢恒毅、劉亮緯、曾煜祐、李錦藤
MLB 球員全壘打數預測
第 t-1 年


[Age, G, PA, AB, R, H, 2B, 3B, HR,
RBI, SB, BB, SO, OPS+, TB]
15 個 features
第 t 年全壘打數


f
運⽤ LSTM, 輸⼊ 10 年的資料猜下⼀年
只有⼀層 LSTM 層!
不要猜精確數⽬, 猜
區間即可!
分五段: 0-9, 10-19, 20-29, 30-39, 40+
Mike Trout (LAA)
預測 30-39
實際 33
Mookie Betts (BOS)
預測 20-29
實際 24
Jose Altuve (HOU)
預測 20-29
實際 24
Kris Bryant (CHC)
預測 30-39 (第⼆⾼ 20-29)
實際 29
Daniel Murphy (WSH)
預測 20-29
實際 23
Corey Seager (LAD)
預測 20-29
實際 22
2017 預測結果
(今年 6 ⽉預測)
陳⾮霆
卷積深度 Q-學習之
ETF ⾃動交易系統
選定⼀⽀ ETF
開始 20,000 美⾦
經過⼀年 (最後⼿上還有 ETF 就全賣)
使⽤ reinforcement learning
* ETF 資料由全球智能提供
過去 20 天的資料

(20x6 的矩陣) f
1
2
3
4
5
買 20 單位
買 10 單位
不做交易
賣 10 單位
賣 20 單位
五種 actions
CDQN 無腦法 CDQN 無腦法
ETF1 17.71% 10.89% ETF11 10.76% 5.26%
ETF2 16.53% 12.6% ETF12 10.19% 13.17%
ETF3 16.3% 0.35% ETF13 7.8% 1.42%
ETF4 14.4% 13.25% ETF14 6.23% 3.56%
ETF5 14.3% 12.7% ETF15 5.73% 4.61%
ETF6 13.91% 13.37% ETF16 3.78% -12.76%
ETF7 13.17% 10.52% ETF17 2.85% 5.83%
ETF8 12.35% 17.07% ETF18 1.59% -4.45%
ETF9 11.68% 10.81% ETF19 1.07% -18.09%
ETF10 11.09% 8.14% ETF20 -0.59% -0.75%
交易結果
領域專家還是 AI 專家為主
要提出問題 (需求) 的⼈?
中⽂基本字的 encoding
中⽂約有 300 個基本字型 (感謝 justfont 專業指導)
我們想做這 300 字「適合的」標碼
之後⽤這 300 字可⽣所有字
Chinese Character Embedding using Invariant GAN
with ⽅宜晟、陳先灝、⿈平、林澤佑
⽤ VAE 做出 300 個字編碼
⿂ ⽷
⽺
⻘
訓練資料不⾜
標準解決⽅案
transfer learning
考慮你的問題是否可能不⽤神經網路
Xception
VGG16
VGG19
ResNet50
InceptionV3
InceptionResNetV2
MobileNet
Keras 提供的 pre-trained model
使⽤ VGG19 做的畫⾵移轉
Variational Grid Setting Network
有時也有意外
with 莊喻能, ⿈梓育
(IALP 2017)
很少的訓練資料達成任務!
我們想⽤神經網路, ⽣出⼀個
字型中⽋缺的字。

More Related Content

What's hot

【輪読】Taking the Human Out of the Loop, section 8
【輪読】Taking the Human Out of the Loop, section 8【輪読】Taking the Human Out of the Loop, section 8
【輪読】Taking the Human Out of the Loop, section 8Takeru Abe
 
HalideでつくるDomain Specific Architectureの世界
HalideでつくるDomain Specific Architectureの世界HalideでつくるDomain Specific Architectureの世界
HalideでつくるDomain Specific Architectureの世界Fixstars Corporation
 
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会Shotaro Sano
 
深層生成モデルの理論と導出(Variational Auto-encoderからADGM)
深層生成モデルの理論と導出(Variational Auto-encoderからADGM)深層生成モデルの理論と導出(Variational Auto-encoderからADGM)
深層生成モデルの理論と導出(Variational Auto-encoderからADGM)Tetsuo Tashiro
 
用 Keras 玩 Machine Learning
用 Keras 玩 Machine Learning用 Keras 玩 Machine Learning
用 Keras 玩 Machine Learning家弘 周
 
ディープラーニングの2値化(Binarized Neural Network)
ディープラーニングの2値化(Binarized Neural Network)ディープラーニングの2値化(Binarized Neural Network)
ディープラーニングの2値化(Binarized Neural Network)Hideo Terada
 
プログラミングコンテストでの動的計画法
プログラミングコンテストでの動的計画法プログラミングコンテストでの動的計画法
プログラミングコンテストでの動的計画法Takuya Akiba
 
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2Preferred Networks
 
Denoising Diffusion Probabilistic Modelsの重要な式の解説
Denoising Diffusion Probabilistic Modelsの重要な式の解説Denoising Diffusion Probabilistic Modelsの重要な式の解説
Denoising Diffusion Probabilistic Modelsの重要な式の解説Tomonari Masada
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会Kenyu Uehara
 
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...Deep Learning JP
 
自習形式で学ぶ「DIGITS による画像分類入門」
自習形式で学ぶ「DIGITS による画像分類入門」自習形式で学ぶ「DIGITS による画像分類入門」
自習形式で学ぶ「DIGITS による画像分類入門」NVIDIA Japan
 
Direct feedback alignment provides learning in Deep Neural Networks
Direct feedback alignment provides learning in Deep Neural NetworksDirect feedback alignment provides learning in Deep Neural Networks
Direct feedback alignment provides learning in Deep Neural NetworksDeep Learning JP
 
勉強か?趣味か?人生か?―プログラミングコンテストとは
勉強か?趣味か?人生か?―プログラミングコンテストとは勉強か?趣味か?人生か?―プログラミングコンテストとは
勉強か?趣味か?人生か?―プログラミングコンテストとはTakuya Akiba
 
【DL輪読会】Transporters with Visual Foresight for Solving Unseen Rearrangement Tasks
【DL輪読会】Transporters with Visual Foresight for Solving Unseen Rearrangement Tasks【DL輪読会】Transporters with Visual Foresight for Solving Unseen Rearrangement Tasks
【DL輪読会】Transporters with Visual Foresight for Solving Unseen Rearrangement TasksDeep Learning JP
 
強化学習@PyData.Tokyo
強化学習@PyData.Tokyo強化学習@PyData.Tokyo
強化学習@PyData.TokyoNaoto Yoshida
 
[DLHacks]PyTorch, PixyzによるGenerative Query Networkの実装
[DLHacks]PyTorch, PixyzによるGenerative Query Networkの実装 [DLHacks]PyTorch, PixyzによるGenerative Query Networkの実装
[DLHacks]PyTorch, PixyzによるGenerative Query Networkの実装 Deep Learning JP
 

What's hot (20)

【輪読】Taking the Human Out of the Loop, section 8
【輪読】Taking the Human Out of the Loop, section 8【輪読】Taking the Human Out of the Loop, section 8
【輪読】Taking the Human Out of the Loop, section 8
 
HalideでつくるDomain Specific Architectureの世界
HalideでつくるDomain Specific Architectureの世界HalideでつくるDomain Specific Architectureの世界
HalideでつくるDomain Specific Architectureの世界
 
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
 
深層生成モデルの理論と導出(Variational Auto-encoderからADGM)
深層生成モデルの理論と導出(Variational Auto-encoderからADGM)深層生成モデルの理論と導出(Variational Auto-encoderからADGM)
深層生成モデルの理論と導出(Variational Auto-encoderからADGM)
 
用 Keras 玩 Machine Learning
用 Keras 玩 Machine Learning用 Keras 玩 Machine Learning
用 Keras 玩 Machine Learning
 
写像 12 相
写像 12 相写像 12 相
写像 12 相
 
ディープラーニングの2値化(Binarized Neural Network)
ディープラーニングの2値化(Binarized Neural Network)ディープラーニングの2値化(Binarized Neural Network)
ディープラーニングの2値化(Binarized Neural Network)
 
プログラミングコンテストでの動的計画法
プログラミングコンテストでの動的計画法プログラミングコンテストでの動的計画法
プログラミングコンテストでの動的計画法
 
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
 
目指せグラフマスター
目指せグラフマスター目指せグラフマスター
目指せグラフマスター
 
Denoising Diffusion Probabilistic Modelsの重要な式の解説
Denoising Diffusion Probabilistic Modelsの重要な式の解説Denoising Diffusion Probabilistic Modelsの重要な式の解説
Denoising Diffusion Probabilistic Modelsの重要な式の解説
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
 
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
 
自習形式で学ぶ「DIGITS による画像分類入門」
自習形式で学ぶ「DIGITS による画像分類入門」自習形式で学ぶ「DIGITS による画像分類入門」
自習形式で学ぶ「DIGITS による画像分類入門」
 
Direct feedback alignment provides learning in Deep Neural Networks
Direct feedback alignment provides learning in Deep Neural NetworksDirect feedback alignment provides learning in Deep Neural Networks
Direct feedback alignment provides learning in Deep Neural Networks
 
勉強か?趣味か?人生か?―プログラミングコンテストとは
勉強か?趣味か?人生か?―プログラミングコンテストとは勉強か?趣味か?人生か?―プログラミングコンテストとは
勉強か?趣味か?人生か?―プログラミングコンテストとは
 
【DL輪読会】Transporters with Visual Foresight for Solving Unseen Rearrangement Tasks
【DL輪読会】Transporters with Visual Foresight for Solving Unseen Rearrangement Tasks【DL輪読会】Transporters with Visual Foresight for Solving Unseen Rearrangement Tasks
【DL輪読会】Transporters with Visual Foresight for Solving Unseen Rearrangement Tasks
 
強化学習@PyData.Tokyo
強化学習@PyData.Tokyo強化学習@PyData.Tokyo
強化学習@PyData.Tokyo
 
[DLHacks]PyTorch, PixyzによるGenerative Query Networkの実装
[DLHacks]PyTorch, PixyzによるGenerative Query Networkの実装 [DLHacks]PyTorch, PixyzによるGenerative Query Networkの実装
[DLHacks]PyTorch, PixyzによるGenerative Query Networkの実装
 

Similar to 深度學習實作上的各種卡關

邏輯思考的技術
邏輯思考的技術邏輯思考的技術
邏輯思考的技術Johnson Gmail
 
1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf 1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf
1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf 1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf 1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf
1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf 1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdfKuanTsaeHuang
 
20080529職涯經驗分享 周品宏
20080529職涯經驗分享 周品宏20080529職涯經驗分享 周品宏
20080529職涯經驗分享 周品宏Xavier Chou
 
Chapter 1_Understanding Artificial Intelligence
Chapter 1_Understanding Artificial IntelligenceChapter 1_Understanding Artificial Intelligence
Chapter 1_Understanding Artificial Intelligencelearningfqz
 
0 1030428賴炳樹特優ta心得分享,東吳大學演講簡報90分.ppt [相容模式]
0 1030428賴炳樹特優ta心得分享,東吳大學演講簡報90分.ppt [相容模式]0 1030428賴炳樹特優ta心得分享,東吳大學演講簡報90分.ppt [相容模式]
0 1030428賴炳樹特優ta心得分享,東吳大學演講簡報90分.ppt [相容模式]炳樹 賴
 
高工的个人发展规划
高工的个人发展规划高工的个人发展规划
高工的个人发展规划Duoyi Wu
 
有效的教學簡報技巧
有效的教學簡報技巧有效的教學簡報技巧
有效的教學簡報技巧林 稚蓉
 
金融基測-模擬考題20題
金融基測-模擬考題20題金融基測-模擬考題20題
金融基測-模擬考題20題逸 張
 
2016 Hadoop Conf TW - 如何建置數據精靈
2016 Hadoop Conf TW - 如何建置數據精靈2016 Hadoop Conf TW - 如何建置數據精靈
2016 Hadoop Conf TW - 如何建置數據精靈晨揚 施
 

Similar to 深度學習實作上的各種卡關 (10)

邏輯思考的技術
邏輯思考的技術邏輯思考的技術
邏輯思考的技術
 
1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf 1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf
1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf 1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf 1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf
1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf 1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf
 
20080529職涯經驗分享 周品宏
20080529職涯經驗分享 周品宏20080529職涯經驗分享 周品宏
20080529職涯經驗分享 周品宏
 
Chapter 1_Understanding Artificial Intelligence
Chapter 1_Understanding Artificial IntelligenceChapter 1_Understanding Artificial Intelligence
Chapter 1_Understanding Artificial Intelligence
 
0 1030428賴炳樹特優ta心得分享,東吳大學演講簡報90分.ppt [相容模式]
0 1030428賴炳樹特優ta心得分享,東吳大學演講簡報90分.ppt [相容模式]0 1030428賴炳樹特優ta心得分享,東吳大學演講簡報90分.ppt [相容模式]
0 1030428賴炳樹特優ta心得分享,東吳大學演講簡報90分.ppt [相容模式]
 
高工的个人发展规划
高工的个人发展规划高工的个人发展规划
高工的个人发展规划
 
有效的教學簡報技巧
有效的教學簡報技巧有效的教學簡報技巧
有效的教學簡報技巧
 
GDSC NYCU下學期社員大會
GDSC NYCU下學期社員大會GDSC NYCU下學期社員大會
GDSC NYCU下學期社員大會
 
金融基測-模擬考題20題
金融基測-模擬考題20題金融基測-模擬考題20題
金融基測-模擬考題20題
 
2016 Hadoop Conf TW - 如何建置數據精靈
2016 Hadoop Conf TW - 如何建置數據精靈2016 Hadoop Conf TW - 如何建置數據精靈
2016 Hadoop Conf TW - 如何建置數據精靈
 

More from Yen-lung Tsai

Deep Learning and Design Thinking
Deep Learning and Design ThinkingDeep Learning and Design Thinking
Deep Learning and Design ThinkingYen-lung Tsai
 
強化學習 Reinforcement Learning
強化學習 Reinforcement Learning強化學習 Reinforcement Learning
強化學習 Reinforcement LearningYen-lung Tsai
 
生成對抗模式 GAN 的介紹
生成對抗模式 GAN 的介紹生成對抗模式 GAN 的介紹
生成對抗模式 GAN 的介紹Yen-lung Tsai
 
Recurrent Neural Network 遞迴式神經網路
Recurrent Neural Network 遞迴式神經網路Recurrent Neural Network 遞迴式神經網路
Recurrent Neural Network 遞迴式神經網路Yen-lung Tsai
 
手把手打開Python資料分析大門
手把手打開Python資料分析大門手把手打開Python資料分析大門
手把手打開Python資料分析大門Yen-lung Tsai
 
與高中生談人工智慧與深度學習
與高中生談人工智慧與深度學習與高中生談人工智慧與深度學習
與高中生談人工智慧與深度學習Yen-lung Tsai
 
人工智慧不是魔法,是數學
人工智慧不是魔法,是數學人工智慧不是魔法,是數學
人工智慧不是魔法,是數學Yen-lung Tsai
 
[數學、邏輯與人生] 05 數,三聲數
[數學、邏輯與人生] 05 數,三聲數[數學、邏輯與人生] 05 數,三聲數
[數學、邏輯與人生] 05 數,三聲數Yen-lung Tsai
 
[數學軟體應用] 05 HTML+CSS
[數學軟體應用] 05 HTML+CSS[數學軟體應用] 05 HTML+CSS
[數學軟體應用] 05 HTML+CSSYen-lung Tsai
 
[數學、邏輯與人生] 03 集合和數學歸納法
[數學、邏輯與人生] 03 集合和數學歸納法[數學、邏輯與人生] 03 集合和數學歸納法
[數學、邏輯與人生] 03 集合和數學歸納法Yen-lung Tsai
 
[數學、邏輯與人生] 01 基本邏輯和真值表
[數學、邏輯與人生] 01 基本邏輯和真值表[數學、邏輯與人生] 01 基本邏輯和真值表
[數學、邏輯與人生] 01 基本邏輯和真值表Yen-lung Tsai
 
03 串起你的數據
03 串起你的數據03 串起你的數據
03 串起你的數據Yen-lung Tsai
 
Markdown可以做什麼
Markdown可以做什麼Markdown可以做什麼
Markdown可以做什麼Yen-lung Tsai
 
01 jupyter 第一課
01 jupyter 第一課01 jupyter 第一課
01 jupyter 第一課Yen-lung Tsai
 
[數學、邏輯與人生] 00 課程簡介
[數學、邏輯與人生] 00 課程簡介[數學、邏輯與人生] 00 課程簡介
[數學、邏輯與人生] 00 課程簡介Yen-lung Tsai
 
數學軟體應用課程 00 - 課程介紹
數學軟體應用課程 00 - 課程介紹數學軟體應用課程 00 - 課程介紹
數學軟體應用課程 00 - 課程介紹Yen-lung Tsai
 
用 GeoGebra 玩數學
用 GeoGebra 玩數學用 GeoGebra 玩數學
用 GeoGebra 玩數學Yen-lung Tsai
 

More from Yen-lung Tsai (19)

Deep Learning and Design Thinking
Deep Learning and Design ThinkingDeep Learning and Design Thinking
Deep Learning and Design Thinking
 
強化學習 Reinforcement Learning
強化學習 Reinforcement Learning強化學習 Reinforcement Learning
強化學習 Reinforcement Learning
 
生成對抗模式 GAN 的介紹
生成對抗模式 GAN 的介紹生成對抗模式 GAN 的介紹
生成對抗模式 GAN 的介紹
 
Recurrent Neural Network 遞迴式神經網路
Recurrent Neural Network 遞迴式神經網路Recurrent Neural Network 遞迴式神經網路
Recurrent Neural Network 遞迴式神經網路
 
手把手打開Python資料分析大門
手把手打開Python資料分析大門手把手打開Python資料分析大門
手把手打開Python資料分析大門
 
與高中生談人工智慧與深度學習
與高中生談人工智慧與深度學習與高中生談人工智慧與深度學習
與高中生談人工智慧與深度學習
 
人工智慧不是魔法,是數學
人工智慧不是魔法,是數學人工智慧不是魔法,是數學
人工智慧不是魔法,是數學
 
[數學、邏輯與人生] 05 數,三聲數
[數學、邏輯與人生] 05 數,三聲數[數學、邏輯與人生] 05 數,三聲數
[數學、邏輯與人生] 05 數,三聲數
 
[數學軟體應用] 05 HTML+CSS
[數學軟體應用] 05 HTML+CSS[數學軟體應用] 05 HTML+CSS
[數學軟體應用] 05 HTML+CSS
 
[數學、邏輯與人生] 03 集合和數學歸納法
[數學、邏輯與人生] 03 集合和數學歸納法[數學、邏輯與人生] 03 集合和數學歸納法
[數學、邏輯與人生] 03 集合和數學歸納法
 
[數學、邏輯與人生] 01 基本邏輯和真值表
[數學、邏輯與人生] 01 基本邏輯和真值表[數學、邏輯與人生] 01 基本邏輯和真值表
[數學、邏輯與人生] 01 基本邏輯和真值表
 
03 串起你的數據
03 串起你的數據03 串起你的數據
03 串起你的數據
 
Markdown可以做什麼
Markdown可以做什麼Markdown可以做什麼
Markdown可以做什麼
 
02 和電腦對話
02 和電腦對話02 和電腦對話
02 和電腦對話
 
01 jupyter 第一課
01 jupyter 第一課01 jupyter 第一課
01 jupyter 第一課
 
[數學、邏輯與人生] 00 課程簡介
[數學、邏輯與人生] 00 課程簡介[數學、邏輯與人生] 00 課程簡介
[數學、邏輯與人生] 00 課程簡介
 
數學軟體應用課程 00 - 課程介紹
數學軟體應用課程 00 - 課程介紹數學軟體應用課程 00 - 課程介紹
數學軟體應用課程 00 - 課程介紹
 
Days on Jupyter
Days on JupyterDays on Jupyter
Days on Jupyter
 
用 GeoGebra 玩數學
用 GeoGebra 玩數學用 GeoGebra 玩數學
用 GeoGebra 玩數學
 

深度學習實作上的各種卡關