SlideShare a Scribd company logo
1 of 74
Download to read offline
MachineLearning
TensorFlow
머신러닝, 텐서 플로우 일단 한번 해봤습니다.
개요
● 머신러닝/ 텐서플로우 진입장벽이 너무 높지 않을까?
● 머신러닝이란?
● Linear Regression
● Logistic Regression
● Softmax
● Tensor Flow MNIST
● Deep Learning
● Tensor Flow 어떻게 쓸 수 있을까?
● 스터디하며 어려웠던 점들 공유
발표자 소개
● #안귀정 #서울 #개발자 #30대
● 머신러닝 / 텐서플로우 공부중
● 구글 / 스택 오버플로우 없이는 코딩에 에로사항이 꽃피는 개발자
머신러닝 진입 장벽이 너무 높지 않을까?
● AI, ML 관심은 있지만 진입장벽이 너무 높지 않을까?
→ 깊이있게 배우고 전문가가 되려면 어렵지만 그건 다른 기술도 마찬가지
● 우리에겐 Google, Stack OverFlow 가 있다.
Alphago / AI / Machine Learning
● Alphago
● Deep Learning
● Machine Learning
● Tensor Flow
TensorFlow ?
● Open Source Machine Learning Library
● Numerical computation using data flow graphs
● Data flow graphs describe mathematical computation
with a directed graph of nodes & edges.
● Deep Flexibility, True Portability, Connect Research and
Production, Auto-Differentiation, Language Options,
Maximize Performance …
Java Cafe 오프라인 스터디 모집
● 혼자서는 공부가 힘들 수도 있겠다.
● 여러명이 모여서 의논하다 보면
뭔가 더 도움이 될것 같다.
● 온오프믹스로 텐서플로우 스터디 모집
스터디는 진행했으나 수많은 진입 장벽들
● 스터디원 모두 인공지능 / 머신 러닝 관련 지식들이 전무
● 난무하는 새로운 용어들
● 영어 능력 부족 (관련 자료들 대부분이 영어자료)
● 수학 손뗀지 오래
→ 한국어 동영상 강의로 스터디 진행 http://hunkim.github.io/ml/
머신러닝 이란?
● 일반적인 프로그램은 프로그래머가 프로그램의 동작 방식을 설계
● Explicit programming 으로 처리하기 곤란한 문제들
(Explicit programming)
● 프로그램이 스스로 학습하게 만들어 문제를 해결하자
EX) 스팸필터, 자동주행 : 너무 많은 룰이 필요해서 어려움
머신러닝 - Supervised Learning
● Supervised / Unsupervised Learning
● 지도 학습
→ 학습데이터(Training Set) 로 학습
머신러닝 기본 개념 - 학습 데이터
머신러닝 기본 개념 - 기계가 학습한다는 것은?
● 결국 입력값에 대한 결과를 예측하는 소프트웨어
● 학습 데이터를 이용해 결과 예측 알고리즘을
● 어떻게 이런 소프트웨어를 만들까?
스스로 수정하는 소프트웨어
Linear Regression
● 입력과 결과가 비례 관계에 있다고 보여지는 사건들
→ 이를 테면 “공부를 많이하면 공부를 잘할 것이다” 같은 것.
Linear Regression - 학습 데이터
학습시간
토익성적학습시간(시간) 토익성적(점)
54 800
8 320
30 600
24 630
46 700
12 680
20 730
37 720
40 700
48 920
Linear Regression - 가설 H(X)
Y = ax + b
h(x) = wx + b
학습시간
토익성적학습시간(시간) 토익성적(점)
54 800
8 320
30 600
24 630
46 700
12 680
20 730
37 720
40 700
48 920
Linear Regression 에서 학습의 의미
● Linear Regression 에서 프로그램이 학습한다는 의미
→ 학습 데이터를 기반하여 가설 H(x) 에서 최적의 w(가중치) 와 b(상수) 값을 찾는 것
→ H(x) = wx + b
● 어떻게 최적의 값을 찾을것인가?
→ Cost Function 설계
Cost Function
비용 = (실제값1
- 예측값1
) 2
+ (실제값2
- 예측값2
)2
+ …..
학습시간
토익성적학습시간(시간) 토익성적(점)
54 800
8 320
30 600
24 630
46 700
12 680
20 730
37 720
40 700
48 920
Cost Function
● 학습하는 프로그램은 Cost Function 의 결과가 가장 적은 최적의 W 와 b 를 찾는 것
● (w, b) 를 하나로 묶어 W 로 취급 → H(x) = WX
● 어떻게 Cost Function 의 결과를 최적화 할 것인가?
Gradient Descent Algorithm
Cost Function 을 그래프로 그려보면?
Gradient Descent Algorithm
● 현재 예측된 W 값에서 기울기를 구하고
기울기가 양수인 경우 W 값을 Step 만큼
감소, 음수인 경우 Step 만큼 증가
● 임의의 W값을 선택
● 해당 점에서 Cost 값이 적은 쪽으로
Step에 따라 경사를 타고 내려감
● 결국 해당 점에서 미분이 필요
Gradient Descent Algorithm
(새로운 예측 W) = (현재의 W) - (Cost 함수의 미분값 * Step)
Linear Regression - Tensor Flow
# Run Code
Convex Function
Linear Regression 요약
● 비례관계에 있다고 여겨지는 사건을 예측할 때 사용 가능
● 프로그램이 학습한다는 의미는 h(x) = wx + b 에서 최적의 w, b 를 찾는 것
● (w, b) 를 찾기 위하여 (실제값 - 예측값)^2 을 비용으로 하는 함수 설계
● 임의의 w, b 를 구하고 해당 값에서 cost 를 줄이는 방향으로 w 와 b 를 수정.
MultiVariable Linear Regression
학습시간(시간) 토익성적(점)
54 800
8 320
30 600
24 630
46 700
70 300
20 920
37 720
40 700
48 920
MultiVariable Linear Regression
학습시간(시간) 해외거주(월) 토익성적(점)
54 12 800
8 0 320
30 12 600
24 15 630
46 12 700
70 0 300
20 36 920
37 12 720
40 12 700
48 24 920
Matrix
학습시간(시간)(x1) 해외거주(월)(x2) 토익성적(점)(y)
54 12 800
8 0 320
30 12 600
24 15 630
46 12 700
70 0 300
20 36 920
37 12 720
40 12 700
48 24 920
● w 의 행렬을 W, x 의 행렬을 X 라 하면
● h(x) = WX
● 결국 기존 가설을 그대로 적용 가능
MultiVariable Linear Regression - Tensor Flow
# Run Code
Logistic Classifier
● TRUE, FALSE 로 결과가 정해져야 하는 사건들의 경우
● 이를테면 “스팸 필터” 등
● 혹은 주식에서 주가 상승, 주가 하락 예측
Logistic Classifier
● Linear Regression 가설을 그대로 적용한다면?
Logistic Classifier
학습시간 기술이민
54 PASS
8 FAIL
30 PASS
24 FAIL
46 PASS
12 FAIL
20 FAIL
37 PASS
40 PASS
48 PASS
Logistic Classifier
120
학습시간 기술이민
54 PASS
8 FAIL
30 PASS
24 FAIL
46 PASS
12 FAIL
20 FAIL
37 PASS
40 PASS
48 PASS
Sigmoid
● H(x) 결과값을 Sigmoid 함수에 넣으면
알아서 0 ~ 1 사이 값이 샤샥 리턴
● Linear Regression 에서 사용했던 H(x) = WX
를 그대로 유지하고 H(x) 의 결과 값을
Sigmoid g(z) 로 변환
Logistic Regression - Cost Function
● Cost 함수의 목적은 예측 결과와 실제 결과가 다르면 비용이 높게, 그렇지
않으면 낮게 나오는 것
Logistic Regression - Cost Function
Logistic Regression - Tensor Flow
# Run Code
Multinomial Logistic Regression
● 결과가 A, B, C 등 특정 타입으로 정해지는 경우
● 이를테면 학점 A, B, C, D, F
Multinomial Logistic Regression - Sigmoid
● 여러개의 타입을 계산하는 것이 아닌 각 결과인가 아닌가에 대한
● EX) 학점 A, B, C, D, F 인 경우
→ A[FALSE], B[TRUE], C[FALSE], D[FALSE], F[FALSE]
TRUE, FALSE 를 구함
Softmax
● 각 분류에 대한 Sigmoid 를 구하고 Sigmoid 총합에 자기자신의 비중을
구함
● EX) A, B, C, D, F 에 대한 확률을 구함. 각 확률을 더하면 1
→ Sigmoid 총합에 자기자신의 비중이므로 각 분류별 % 값이 나오게 됨.
Cross Entropy
● 각 결과에 대한 Sigmoid 값을 더한 함수
● L 은 결과값 array
Cost Function
Softmax - Sample
학습시간(시간) 해외거주(월) 영어 학점
54 12 B
8 0 D
30 12 C
24 15 C
46 12 C
70 0 D
20 36 A
37 12 C
40 12 C
48 24 A
Softmax - TensorFlow
# Run Code
MNIST - TensorFlow Basic Tutorial
Mixed National Institute of Standards and Technology database
MNIST
● MNIST 데이터 역시 행렬로 취급하면 된다.
● 지금까지 배운 정보로도 충분히 ML Software 제작 가능
● 결과값이 0~9 이므로 Softmax 사용
MNIST - TensorFlow
# Run Code
MNIST - TensorFlow
● 이게 정말 제대로 돌고 있는가?
● 올바른 방향으로 스터디 하고 있는가?
● 실행할때마다 결과가 달라지니 확신할 수가 없음
Client
MNIST 테스트 소스 제작
HTML
JAVASCRIPT
Server
FLASK
opencv
tensorflow
MNIST 테스트 소스 제작
https://github.com/ahn-kj/javacafe-tensorflow
MNIST 테스트 소스
# Run Code
Deep Learning - NN
http://sebastianraschka.com/
Deep Learning(Neural Network)
● 신호에 적절한 가중치 곱 과 적절한 상수값이
더해짐
● Activation Function 으로 다음 뉴런에 신호를
전달할지 안할지가 결정됨
NN - Activation Function
NN - AND / OR GATE
NN - AND / OR GATE
NN - AND / OR
NN - XOR Problem
NN - XOR Problem
NN - Backpropagation
NN - Backpropagation Problem
NN - Backpropagation Problem
Convolutional NN
Convolutional NN
NN - ImageNet
NN - ImageNet
NN - Deep Q Learning
https://www.youtube.com/watch?v=V1eY
niJ0Rnk
NN - summary of findings up today
RNN - Sequence Data
RNN - hypothesis
TensorFlow 어떻게 쓸 수 있을까?
● 시각장애인을 위한 이미지 설명 프로그램
● 중학교 2학년이 개발
● RNN / TensorFlow 사용
● link
TensorFlow 어떻게 쓸 수 있을까?
● 오이 품종 자동 분류 기계
● 일본에서 TensorFlow 로 개발
● link
발표에서 제대로 다루지 못한 것들
● Recurrent Neural Network
● Convolutional Neural Network
● Backpropagation Problem
● Google Cloud Machine Learning
스터디 하며 어려웠던 점들 (삽질들)
● 딥러닝의 경우 GPU 가속이 중요
→ Macbook 에서는 세팅 어려움, 우분투 추천
● 부족한 한글자료
→ 최근에는 점차 늘어나는 추세
● 오랜만에 보는 수학공식들
→ 개발자 관점에서 크게 중요하지 않을 수 있음. 원리를 이해하고 응용만 해도 충분.
● Learning Rate 조절
→ Cost 가 발산하는 경우 확인 필요
자바카페 커뮤니티 PPL
● 오프라인 스터디 위주 개발자 모임
● 원하는 경우 각종 세미나서 발표기회 제공
● 오프라인 모임만 가질수 있는 장점
● 오픈소스 활동

More Related Content

What's hot

딥러닝 기본 원리의 이해
딥러닝 기본 원리의 이해딥러닝 기본 원리의 이해
딥러닝 기본 원리의 이해Hee Won Park
 
[D2대학생세미나]lovely algrorithm
[D2대학생세미나]lovely algrorithm[D2대학생세미나]lovely algrorithm
[D2대학생세미나]lovely algrorithmNAVER D2
 
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016Taehoon Kim
 
텐서플로우로 배우는 딥러닝
텐서플로우로 배우는 딥러닝텐서플로우로 배우는 딥러닝
텐서플로우로 배우는 딥러닝찬웅 주
 
파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)SK(주) C&C - 강병호
 
딥러닝 - 역사와 이론적 기초
딥러닝 - 역사와 이론적 기초딥러닝 - 역사와 이론적 기초
딥러닝 - 역사와 이론적 기초Hyungsoo Ryoo
 
Tensorflow for Deep Learning(SK Planet)
Tensorflow for Deep Learning(SK Planet)Tensorflow for Deep Learning(SK Planet)
Tensorflow for Deep Learning(SK Planet)Tae Young Lee
 
Io17ex automl & autodraw
Io17ex automl & autodrawIo17ex automl & autodraw
Io17ex automl & autodrawTae Young Lee
 
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기NAVER D2
 
Howto_Tensorflow+Linear Regression
Howto_Tensorflow+Linear RegressionHowto_Tensorflow+Linear Regression
Howto_Tensorflow+Linear RegressionHyo jeong Lee
 
인공신경망
인공신경망인공신경망
인공신경망종열 현
 
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariochoTfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariochoMario Cho
 
랩탑으로 tensorflow 도전하기 - tutorial
랩탑으로 tensorflow 도전하기 - tutorial랩탑으로 tensorflow 도전하기 - tutorial
랩탑으로 tensorflow 도전하기 - tutorialLee Seungeun
 
Ai 그까이거
Ai 그까이거Ai 그까이거
Ai 그까이거도형 임
 
파이썬으로 나만의 강화학습 환경 만들기
파이썬으로 나만의 강화학습 환경 만들기파이썬으로 나만의 강화학습 환경 만들기
파이썬으로 나만의 강화학습 환경 만들기정주 김
 
[Tf2017] day3 jwkang_pub
[Tf2017] day3 jwkang_pub[Tf2017] day3 jwkang_pub
[Tf2017] day3 jwkang_pubJaewook. Kang
 
딥러닝을 이용한 자연어처리의 연구동향
딥러닝을 이용한 자연어처리의 연구동향딥러닝을 이용한 자연어처리의 연구동향
딥러닝을 이용한 자연어처리의 연구동향홍배 김
 
[224] 번역 모델 기반_질의_교정_시스템
[224] 번역 모델 기반_질의_교정_시스템[224] 번역 모델 기반_질의_교정_시스템
[224] 번역 모델 기반_질의_교정_시스템NAVER D2
 
해커에게 전해들은 머신러닝 #1
해커에게 전해들은 머신러닝 #1해커에게 전해들은 머신러닝 #1
해커에게 전해들은 머신러닝 #1Haesun Park
 

What's hot (20)

딥러닝 기본 원리의 이해
딥러닝 기본 원리의 이해딥러닝 기본 원리의 이해
딥러닝 기본 원리의 이해
 
[D2대학생세미나]lovely algrorithm
[D2대학생세미나]lovely algrorithm[D2대학생세미나]lovely algrorithm
[D2대학생세미나]lovely algrorithm
 
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
 
텐서플로우로 배우는 딥러닝
텐서플로우로 배우는 딥러닝텐서플로우로 배우는 딥러닝
텐서플로우로 배우는 딥러닝
 
파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)
 
딥러닝 - 역사와 이론적 기초
딥러닝 - 역사와 이론적 기초딥러닝 - 역사와 이론적 기초
딥러닝 - 역사와 이론적 기초
 
Tensorflow for Deep Learning(SK Planet)
Tensorflow for Deep Learning(SK Planet)Tensorflow for Deep Learning(SK Planet)
Tensorflow for Deep Learning(SK Planet)
 
Io17ex automl & autodraw
Io17ex automl & autodrawIo17ex automl & autodraw
Io17ex automl & autodraw
 
파이썬으로 익히는 딥러닝
파이썬으로 익히는 딥러닝파이썬으로 익히는 딥러닝
파이썬으로 익히는 딥러닝
 
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기
 
Howto_Tensorflow+Linear Regression
Howto_Tensorflow+Linear RegressionHowto_Tensorflow+Linear Regression
Howto_Tensorflow+Linear Regression
 
인공신경망
인공신경망인공신경망
인공신경망
 
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariochoTfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
 
랩탑으로 tensorflow 도전하기 - tutorial
랩탑으로 tensorflow 도전하기 - tutorial랩탑으로 tensorflow 도전하기 - tutorial
랩탑으로 tensorflow 도전하기 - tutorial
 
Ai 그까이거
Ai 그까이거Ai 그까이거
Ai 그까이거
 
파이썬으로 나만의 강화학습 환경 만들기
파이썬으로 나만의 강화학습 환경 만들기파이썬으로 나만의 강화학습 환경 만들기
파이썬으로 나만의 강화학습 환경 만들기
 
[Tf2017] day3 jwkang_pub
[Tf2017] day3 jwkang_pub[Tf2017] day3 jwkang_pub
[Tf2017] day3 jwkang_pub
 
딥러닝을 이용한 자연어처리의 연구동향
딥러닝을 이용한 자연어처리의 연구동향딥러닝을 이용한 자연어처리의 연구동향
딥러닝을 이용한 자연어처리의 연구동향
 
[224] 번역 모델 기반_질의_교정_시스템
[224] 번역 모델 기반_질의_교정_시스템[224] 번역 모델 기반_질의_교정_시스템
[224] 번역 모델 기반_질의_교정_시스템
 
해커에게 전해들은 머신러닝 #1
해커에게 전해들은 머신러닝 #1해커에게 전해들은 머신러닝 #1
해커에게 전해들은 머신러닝 #1
 

Viewers also liked

7.woring with text data
7.woring with text data7.woring with text data
7.woring with text dataHaesun Park
 
4.representing data and engineering features
4.representing data and engineering features4.representing data and engineering features
4.representing data and engineering featuresHaesun Park
 
Logistic Regression
Logistic RegressionLogistic Regression
Logistic RegressionMinHyeok Kim
 
5.model evaluation and improvement
5.model evaluation and improvement5.model evaluation and improvement
5.model evaluation and improvementHaesun Park
 
20160409 microsoft 세미나 머신러닝관련 발표자료
20160409 microsoft 세미나 머신러닝관련 발표자료20160409 microsoft 세미나 머신러닝관련 발표자료
20160409 microsoft 세미나 머신러닝관련 발표자료JungGeun Lee
 
해커에게 전해들은 머신러닝 #3
해커에게 전해들은 머신러닝 #3해커에게 전해들은 머신러닝 #3
해커에게 전해들은 머신러닝 #3Haesun Park
 
Linear regression analysis
Linear regression analysisLinear regression analysis
Linear regression analysismothersafe
 
빅데이터 전문가 / 데이터 사이언티스트 커리어에 대한 고려 사항과 사례 - Gonnector 고영혁 (Dylan Ko)
빅데이터 전문가 / 데이터 사이언티스트 커리어에 대한 고려 사항과 사례 - Gonnector 고영혁 (Dylan Ko)빅데이터 전문가 / 데이터 사이언티스트 커리어에 대한 고려 사항과 사례 - Gonnector 고영혁 (Dylan Ko)
빅데이터 전문가 / 데이터 사이언티스트 커리어에 대한 고려 사항과 사례 - Gonnector 고영혁 (Dylan Ko)Dylan Ko
 
해커에게 전해들은 머신러닝 #2
해커에게 전해들은 머신러닝 #2해커에게 전해들은 머신러닝 #2
해커에게 전해들은 머신러닝 #2Haesun Park
 
해커에게 전해들은 머신러닝 #4
해커에게 전해들은 머신러닝 #4해커에게 전해들은 머신러닝 #4
해커에게 전해들은 머신러닝 #4Haesun Park
 
인공지능 변호사 개발 1편 - Ai lawyer 개발을 위한 시도
인공지능 변호사 개발  1편 - Ai lawyer 개발을 위한 시도 인공지능 변호사 개발  1편 - Ai lawyer 개발을 위한 시도
인공지능 변호사 개발 1편 - Ai lawyer 개발을 위한 시도 jason min
 
머신러닝 이해하기 (Sample)
머신러닝 이해하기 (Sample)머신러닝 이해하기 (Sample)
머신러닝 이해하기 (Sample)Ashal aka JOKER
 
Deep learning 기반TmapPOI 추천기술개발사례
Deep learning 기반TmapPOI 추천기술개발사례Deep learning 기반TmapPOI 추천기술개발사례
Deep learning 기반TmapPOI 추천기술개발사례Lee Ji Eun
 
머신러닝 시그 세미나_(deep learning for visual recognition)
머신러닝 시그 세미나_(deep learning for visual recognition)머신러닝 시그 세미나_(deep learning for visual recognition)
머신러닝 시그 세미나_(deep learning for visual recognition)Yonghoon Kwon
 
파이콘 2017 그만퇴근합시다_이지호
파이콘 2017 그만퇴근합시다_이지호파이콘 2017 그만퇴근합시다_이지호
파이콘 2017 그만퇴근합시다_이지호Jiho Lee
 
6.algorithm chains and piplines
6.algorithm chains and piplines6.algorithm chains and piplines
6.algorithm chains and piplinesHaesun Park
 
AlphaGo 알고리즘 요약
AlphaGo 알고리즘 요약AlphaGo 알고리즘 요약
AlphaGo 알고리즘 요약Jooyoul Lee
 
1.Introduction to Python and TensorFlow
1.Introduction to Python and TensorFlow1.Introduction to Python and TensorFlow
1.Introduction to Python and TensorFlowHaesun Park
 
1.introduction(epoch#2)
1.introduction(epoch#2)1.introduction(epoch#2)
1.introduction(epoch#2)Haesun Park
 

Viewers also liked (20)

7.woring with text data
7.woring with text data7.woring with text data
7.woring with text data
 
4.representing data and engineering features
4.representing data and engineering features4.representing data and engineering features
4.representing data and engineering features
 
Logistic Regression
Logistic RegressionLogistic Regression
Logistic Regression
 
5.model evaluation and improvement
5.model evaluation and improvement5.model evaluation and improvement
5.model evaluation and improvement
 
20160409 microsoft 세미나 머신러닝관련 발표자료
20160409 microsoft 세미나 머신러닝관련 발표자료20160409 microsoft 세미나 머신러닝관련 발표자료
20160409 microsoft 세미나 머신러닝관련 발표자료
 
해커에게 전해들은 머신러닝 #3
해커에게 전해들은 머신러닝 #3해커에게 전해들은 머신러닝 #3
해커에게 전해들은 머신러닝 #3
 
Linear regression analysis
Linear regression analysisLinear regression analysis
Linear regression analysis
 
빅데이터 전문가 / 데이터 사이언티스트 커리어에 대한 고려 사항과 사례 - Gonnector 고영혁 (Dylan Ko)
빅데이터 전문가 / 데이터 사이언티스트 커리어에 대한 고려 사항과 사례 - Gonnector 고영혁 (Dylan Ko)빅데이터 전문가 / 데이터 사이언티스트 커리어에 대한 고려 사항과 사례 - Gonnector 고영혁 (Dylan Ko)
빅데이터 전문가 / 데이터 사이언티스트 커리어에 대한 고려 사항과 사례 - Gonnector 고영혁 (Dylan Ko)
 
해커에게 전해들은 머신러닝 #2
해커에게 전해들은 머신러닝 #2해커에게 전해들은 머신러닝 #2
해커에게 전해들은 머신러닝 #2
 
해커에게 전해들은 머신러닝 #4
해커에게 전해들은 머신러닝 #4해커에게 전해들은 머신러닝 #4
해커에게 전해들은 머신러닝 #4
 
인공지능 변호사 개발 1편 - Ai lawyer 개발을 위한 시도
인공지능 변호사 개발  1편 - Ai lawyer 개발을 위한 시도 인공지능 변호사 개발  1편 - Ai lawyer 개발을 위한 시도
인공지능 변호사 개발 1편 - Ai lawyer 개발을 위한 시도
 
머신러닝 이해하기 (Sample)
머신러닝 이해하기 (Sample)머신러닝 이해하기 (Sample)
머신러닝 이해하기 (Sample)
 
Deep learning 기반TmapPOI 추천기술개발사례
Deep learning 기반TmapPOI 추천기술개발사례Deep learning 기반TmapPOI 추천기술개발사례
Deep learning 기반TmapPOI 추천기술개발사례
 
머신러닝 시그 세미나_(deep learning for visual recognition)
머신러닝 시그 세미나_(deep learning for visual recognition)머신러닝 시그 세미나_(deep learning for visual recognition)
머신러닝 시그 세미나_(deep learning for visual recognition)
 
파이콘 2017 그만퇴근합시다_이지호
파이콘 2017 그만퇴근합시다_이지호파이콘 2017 그만퇴근합시다_이지호
파이콘 2017 그만퇴근합시다_이지호
 
6.algorithm chains and piplines
6.algorithm chains and piplines6.algorithm chains and piplines
6.algorithm chains and piplines
 
Text summarization
Text summarizationText summarization
Text summarization
 
AlphaGo 알고리즘 요약
AlphaGo 알고리즘 요약AlphaGo 알고리즘 요약
AlphaGo 알고리즘 요약
 
1.Introduction to Python and TensorFlow
1.Introduction to Python and TensorFlow1.Introduction to Python and TensorFlow
1.Introduction to Python and TensorFlow
 
1.introduction(epoch#2)
1.introduction(epoch#2)1.introduction(epoch#2)
1.introduction(epoch#2)
 

Similar to 개발자를 위한 공감세미나 tensor-flow

Machine learning linearregression
Machine learning linearregressionMachine learning linearregression
Machine learning linearregressionHaYoungChoi17
 
Function approximation as supervised learning
Function approximation as supervised learningFunction approximation as supervised learning
Function approximation as supervised learningSunggon Song
 
딥러닝을 위한 Tensor flow(skt academy)
딥러닝을 위한 Tensor flow(skt academy)딥러닝을 위한 Tensor flow(skt academy)
딥러닝을 위한 Tensor flow(skt academy)Tae Young Lee
 
ESM Mid term Review
ESM Mid term ReviewESM Mid term Review
ESM Mid term ReviewMario Cho
 
Lecture 4: Neural Networks I
Lecture 4: Neural Networks ILecture 4: Neural Networks I
Lecture 4: Neural Networks ISang Jun Lee
 
알고리즘 연합캠프 세미나 1-C (알고리즘 설계와 모델링 및 수학)
알고리즘 연합캠프 세미나 1-C (알고리즘 설계와 모델링 및 수학)알고리즘 연합캠프 세미나 1-C (알고리즘 설계와 모델링 및 수학)
알고리즘 연합캠프 세미나 1-C (알고리즘 설계와 모델링 및 수학)HYUNJEONG KIM
 
인공지능 맛보기
인공지능 맛보기인공지능 맛보기
인공지능 맛보기Park JoongSoo
 
NDC11_김성익_슈퍼클래스
NDC11_김성익_슈퍼클래스NDC11_김성익_슈퍼클래스
NDC11_김성익_슈퍼클래스Sungik Kim
 
자바로 Mnist 구현하고_스프링웹서버붙이기
자바로 Mnist 구현하고_스프링웹서버붙이기자바로 Mnist 구현하고_스프링웹서버붙이기
자바로 Mnist 구현하고_스프링웹서버붙이기라한사 아
 
머신 러닝을 해보자 1장 (2022년 스터디)
머신 러닝을 해보자 1장 (2022년 스터디)머신 러닝을 해보자 1장 (2022년 스터디)
머신 러닝을 해보자 1장 (2022년 스터디)ssusercdf17c
 
Dsh data sensitive hashing for high dimensional k-nn search
Dsh  data sensitive hashing for high dimensional k-nn searchDsh  data sensitive hashing for high dimensional k-nn search
Dsh data sensitive hashing for high dimensional k-nn searchWooSung Choi
 
Open jig-ware 6회-오로카세미나pptx
Open jig-ware 6회-오로카세미나pptxOpen jig-ware 6회-오로카세미나pptx
Open jig-ware 6회-오로카세미나pptxJinwook On
 
Ml for 정형데이터
Ml for 정형데이터Ml for 정형데이터
Ml for 정형데이터JEEHYUN PAIK
 
Coursera Machine Learning (by Andrew Ng)_강의정리
Coursera Machine Learning (by Andrew Ng)_강의정리Coursera Machine Learning (by Andrew Ng)_강의정리
Coursera Machine Learning (by Andrew Ng)_강의정리SANG WON PARK
 
FP, lazy evaluation
FP, lazy evaluation FP, lazy evaluation
FP, lazy evaluation 성범 홍
 
딥러닝계의 블루오션, Apache MXNet 공헌하기 - 윤석찬 (AWS 테크에반젤리스트) 오규삼 (삼성 SDS)
딥러닝계의 블루오션, Apache MXNet 공헌하기 - 윤석찬 (AWS 테크에반젤리스트) 오규삼 (삼성 SDS)딥러닝계의 블루오션, Apache MXNet 공헌하기 - 윤석찬 (AWS 테크에반젤리스트) 오규삼 (삼성 SDS)
딥러닝계의 블루오션, Apache MXNet 공헌하기 - 윤석찬 (AWS 테크에반젤리스트) 오규삼 (삼성 SDS)Amazon Web Services Korea
 

Similar to 개발자를 위한 공감세미나 tensor-flow (20)

Machine learning linearregression
Machine learning linearregressionMachine learning linearregression
Machine learning linearregression
 
Function approximation as supervised learning
Function approximation as supervised learningFunction approximation as supervised learning
Function approximation as supervised learning
 
딥러닝을 위한 Tensor flow(skt academy)
딥러닝을 위한 Tensor flow(skt academy)딥러닝을 위한 Tensor flow(skt academy)
딥러닝을 위한 Tensor flow(skt academy)
 
ESM Mid term Review
ESM Mid term ReviewESM Mid term Review
ESM Mid term Review
 
Ml
MlMl
Ml
 
Lecture 4: Neural Networks I
Lecture 4: Neural Networks ILecture 4: Neural Networks I
Lecture 4: Neural Networks I
 
Open Jig Ware
Open Jig WareOpen Jig Ware
Open Jig Ware
 
알고리즘 연합캠프 세미나 1-C (알고리즘 설계와 모델링 및 수학)
알고리즘 연합캠프 세미나 1-C (알고리즘 설계와 모델링 및 수학)알고리즘 연합캠프 세미나 1-C (알고리즘 설계와 모델링 및 수학)
알고리즘 연합캠프 세미나 1-C (알고리즘 설계와 모델링 및 수학)
 
인공지능 맛보기
인공지능 맛보기인공지능 맛보기
인공지능 맛보기
 
NDC11_김성익_슈퍼클래스
NDC11_김성익_슈퍼클래스NDC11_김성익_슈퍼클래스
NDC11_김성익_슈퍼클래스
 
자바로 Mnist 구현하고_스프링웹서버붙이기
자바로 Mnist 구현하고_스프링웹서버붙이기자바로 Mnist 구현하고_스프링웹서버붙이기
자바로 Mnist 구현하고_스프링웹서버붙이기
 
머신 러닝을 해보자 1장 (2022년 스터디)
머신 러닝을 해보자 1장 (2022년 스터디)머신 러닝을 해보자 1장 (2022년 스터디)
머신 러닝을 해보자 1장 (2022년 스터디)
 
Dsh data sensitive hashing for high dimensional k-nn search
Dsh  data sensitive hashing for high dimensional k-nn searchDsh  data sensitive hashing for high dimensional k-nn search
Dsh data sensitive hashing for high dimensional k-nn search
 
Open jig-ware 6회-오로카세미나pptx
Open jig-ware 6회-오로카세미나pptxOpen jig-ware 6회-오로카세미나pptx
Open jig-ware 6회-오로카세미나pptx
 
Ml for 정형데이터
Ml for 정형데이터Ml for 정형데이터
Ml for 정형데이터
 
Deep learning overview
Deep learning overviewDeep learning overview
Deep learning overview
 
Coursera Machine Learning (by Andrew Ng)_강의정리
Coursera Machine Learning (by Andrew Ng)_강의정리Coursera Machine Learning (by Andrew Ng)_강의정리
Coursera Machine Learning (by Andrew Ng)_강의정리
 
CS294-112 18
CS294-112 18CS294-112 18
CS294-112 18
 
FP, lazy evaluation
FP, lazy evaluation FP, lazy evaluation
FP, lazy evaluation
 
딥러닝계의 블루오션, Apache MXNet 공헌하기 - 윤석찬 (AWS 테크에반젤리스트) 오규삼 (삼성 SDS)
딥러닝계의 블루오션, Apache MXNet 공헌하기 - 윤석찬 (AWS 테크에반젤리스트) 오규삼 (삼성 SDS)딥러닝계의 블루오션, Apache MXNet 공헌하기 - 윤석찬 (AWS 테크에반젤리스트) 오규삼 (삼성 SDS)
딥러닝계의 블루오션, Apache MXNet 공헌하기 - 윤석찬 (AWS 테크에반젤리스트) 오규삼 (삼성 SDS)
 

More from 양 한빛

파이썬 날코딩으로 알고 짜는 딥러닝_15장
파이썬 날코딩으로 알고 짜는 딥러닝_15장파이썬 날코딩으로 알고 짜는 딥러닝_15장
파이썬 날코딩으로 알고 짜는 딥러닝_15장양 한빛
 
파이썬 날코딩으로 알고 짜는 딥러닝_14장
파이썬 날코딩으로 알고 짜는 딥러닝_14장파이썬 날코딩으로 알고 짜는 딥러닝_14장
파이썬 날코딩으로 알고 짜는 딥러닝_14장양 한빛
 
파이썬 날코딩으로 알고 짜는 딥러닝_13장
파이썬 날코딩으로 알고 짜는 딥러닝_13장파이썬 날코딩으로 알고 짜는 딥러닝_13장
파이썬 날코딩으로 알고 짜는 딥러닝_13장양 한빛
 
파이썬 날코딩으로 알고 짜는 딥러닝_12장
파이썬 날코딩으로 알고 짜는 딥러닝_12장파이썬 날코딩으로 알고 짜는 딥러닝_12장
파이썬 날코딩으로 알고 짜는 딥러닝_12장양 한빛
 
파이썬 날코딩으로 알고 짜는 딥러닝_10장
파이썬 날코딩으로 알고 짜는 딥러닝_10장파이썬 날코딩으로 알고 짜는 딥러닝_10장
파이썬 날코딩으로 알고 짜는 딥러닝_10장양 한빛
 
파이썬 날코딩으로 알고 짜는 딥러닝_9장
파이썬 날코딩으로 알고 짜는 딥러닝_9장파이썬 날코딩으로 알고 짜는 딥러닝_9장
파이썬 날코딩으로 알고 짜는 딥러닝_9장양 한빛
 
파이썬 날코딩으로 알고 짜는 딥러닝_5장
파이썬 날코딩으로 알고 짜는 딥러닝_5장파이썬 날코딩으로 알고 짜는 딥러닝_5장
파이썬 날코딩으로 알고 짜는 딥러닝_5장양 한빛
 
파이썬 날코딩으로 알고 짜는 딥러닝_11장
파이썬 날코딩으로 알고 짜는 딥러닝_11장파이썬 날코딩으로 알고 짜는 딥러닝_11장
파이썬 날코딩으로 알고 짜는 딥러닝_11장양 한빛
 
파이썬 날코딩으로 알고 짜는 딥러닝_8장
파이썬 날코딩으로 알고 짜는 딥러닝_8장파이썬 날코딩으로 알고 짜는 딥러닝_8장
파이썬 날코딩으로 알고 짜는 딥러닝_8장양 한빛
 
파이썬 날코딩으로 알고 짜는 딥러닝_7장
파이썬 날코딩으로 알고 짜는 딥러닝_7장파이썬 날코딩으로 알고 짜는 딥러닝_7장
파이썬 날코딩으로 알고 짜는 딥러닝_7장양 한빛
 
파이썬 날코딩으로 알고 짜는 딥러닝_6장
파이썬 날코딩으로 알고 짜는 딥러닝_6장파이썬 날코딩으로 알고 짜는 딥러닝_6장
파이썬 날코딩으로 알고 짜는 딥러닝_6장양 한빛
 
파이썬 날코딩으로 알고 짜는 딥러닝_4장
파이썬 날코딩으로 알고 짜는 딥러닝_4장파이썬 날코딩으로 알고 짜는 딥러닝_4장
파이썬 날코딩으로 알고 짜는 딥러닝_4장양 한빛
 
미리보기 파이썬 날코딩으로 알고 짜는 딥러닝
 미리보기 파이썬 날코딩으로 알고 짜는 딥러닝 미리보기 파이썬 날코딩으로 알고 짜는 딥러닝
미리보기 파이썬 날코딩으로 알고 짜는 딥러닝양 한빛
 
파이썬 날코딩으로 알고 짜는 딥러닝_2장
파이썬 날코딩으로 알고 짜는 딥러닝_2장파이썬 날코딩으로 알고 짜는 딥러닝_2장
파이썬 날코딩으로 알고 짜는 딥러닝_2장양 한빛
 
파이썬 날코딩으로 알고짜는 딥러닝_1장_회귀분석
파이썬 날코딩으로 알고짜는 딥러닝_1장_회귀분석 파이썬 날코딩으로 알고짜는 딥러닝_1장_회귀분석
파이썬 날코딩으로 알고짜는 딥러닝_1장_회귀분석 양 한빛
 
RealTime Talk #3 스케치 빠르게 배워 똑똑하게 쓰기
RealTime Talk #3  스케치 빠르게 배워 똑똑하게 쓰기 RealTime Talk #3  스케치 빠르게 배워 똑똑하게 쓰기
RealTime Talk #3 스케치 빠르게 배워 똑똑하게 쓰기 양 한빛
 
실무자가 말하는 모의해킹
실무자가 말하는 모의해킹실무자가 말하는 모의해킹
실무자가 말하는 모의해킹양 한빛
 
비즈니스블록체인
비즈니스블록체인 비즈니스블록체인
비즈니스블록체인 양 한빛
 
앵귤러 첫걸음(Angular for beginers)
앵귤러 첫걸음(Angular for beginers)앵귤러 첫걸음(Angular for beginers)
앵귤러 첫걸음(Angular for beginers)양 한빛
 
직접 설계하고 만드는 Io t 백신 초급(한빛미디어) _맛보기
직접 설계하고 만드는 Io t 백신 초급(한빛미디어) _맛보기직접 설계하고 만드는 Io t 백신 초급(한빛미디어) _맛보기
직접 설계하고 만드는 Io t 백신 초급(한빛미디어) _맛보기양 한빛
 

More from 양 한빛 (20)

파이썬 날코딩으로 알고 짜는 딥러닝_15장
파이썬 날코딩으로 알고 짜는 딥러닝_15장파이썬 날코딩으로 알고 짜는 딥러닝_15장
파이썬 날코딩으로 알고 짜는 딥러닝_15장
 
파이썬 날코딩으로 알고 짜는 딥러닝_14장
파이썬 날코딩으로 알고 짜는 딥러닝_14장파이썬 날코딩으로 알고 짜는 딥러닝_14장
파이썬 날코딩으로 알고 짜는 딥러닝_14장
 
파이썬 날코딩으로 알고 짜는 딥러닝_13장
파이썬 날코딩으로 알고 짜는 딥러닝_13장파이썬 날코딩으로 알고 짜는 딥러닝_13장
파이썬 날코딩으로 알고 짜는 딥러닝_13장
 
파이썬 날코딩으로 알고 짜는 딥러닝_12장
파이썬 날코딩으로 알고 짜는 딥러닝_12장파이썬 날코딩으로 알고 짜는 딥러닝_12장
파이썬 날코딩으로 알고 짜는 딥러닝_12장
 
파이썬 날코딩으로 알고 짜는 딥러닝_10장
파이썬 날코딩으로 알고 짜는 딥러닝_10장파이썬 날코딩으로 알고 짜는 딥러닝_10장
파이썬 날코딩으로 알고 짜는 딥러닝_10장
 
파이썬 날코딩으로 알고 짜는 딥러닝_9장
파이썬 날코딩으로 알고 짜는 딥러닝_9장파이썬 날코딩으로 알고 짜는 딥러닝_9장
파이썬 날코딩으로 알고 짜는 딥러닝_9장
 
파이썬 날코딩으로 알고 짜는 딥러닝_5장
파이썬 날코딩으로 알고 짜는 딥러닝_5장파이썬 날코딩으로 알고 짜는 딥러닝_5장
파이썬 날코딩으로 알고 짜는 딥러닝_5장
 
파이썬 날코딩으로 알고 짜는 딥러닝_11장
파이썬 날코딩으로 알고 짜는 딥러닝_11장파이썬 날코딩으로 알고 짜는 딥러닝_11장
파이썬 날코딩으로 알고 짜는 딥러닝_11장
 
파이썬 날코딩으로 알고 짜는 딥러닝_8장
파이썬 날코딩으로 알고 짜는 딥러닝_8장파이썬 날코딩으로 알고 짜는 딥러닝_8장
파이썬 날코딩으로 알고 짜는 딥러닝_8장
 
파이썬 날코딩으로 알고 짜는 딥러닝_7장
파이썬 날코딩으로 알고 짜는 딥러닝_7장파이썬 날코딩으로 알고 짜는 딥러닝_7장
파이썬 날코딩으로 알고 짜는 딥러닝_7장
 
파이썬 날코딩으로 알고 짜는 딥러닝_6장
파이썬 날코딩으로 알고 짜는 딥러닝_6장파이썬 날코딩으로 알고 짜는 딥러닝_6장
파이썬 날코딩으로 알고 짜는 딥러닝_6장
 
파이썬 날코딩으로 알고 짜는 딥러닝_4장
파이썬 날코딩으로 알고 짜는 딥러닝_4장파이썬 날코딩으로 알고 짜는 딥러닝_4장
파이썬 날코딩으로 알고 짜는 딥러닝_4장
 
미리보기 파이썬 날코딩으로 알고 짜는 딥러닝
 미리보기 파이썬 날코딩으로 알고 짜는 딥러닝 미리보기 파이썬 날코딩으로 알고 짜는 딥러닝
미리보기 파이썬 날코딩으로 알고 짜는 딥러닝
 
파이썬 날코딩으로 알고 짜는 딥러닝_2장
파이썬 날코딩으로 알고 짜는 딥러닝_2장파이썬 날코딩으로 알고 짜는 딥러닝_2장
파이썬 날코딩으로 알고 짜는 딥러닝_2장
 
파이썬 날코딩으로 알고짜는 딥러닝_1장_회귀분석
파이썬 날코딩으로 알고짜는 딥러닝_1장_회귀분석 파이썬 날코딩으로 알고짜는 딥러닝_1장_회귀분석
파이썬 날코딩으로 알고짜는 딥러닝_1장_회귀분석
 
RealTime Talk #3 스케치 빠르게 배워 똑똑하게 쓰기
RealTime Talk #3  스케치 빠르게 배워 똑똑하게 쓰기 RealTime Talk #3  스케치 빠르게 배워 똑똑하게 쓰기
RealTime Talk #3 스케치 빠르게 배워 똑똑하게 쓰기
 
실무자가 말하는 모의해킹
실무자가 말하는 모의해킹실무자가 말하는 모의해킹
실무자가 말하는 모의해킹
 
비즈니스블록체인
비즈니스블록체인 비즈니스블록체인
비즈니스블록체인
 
앵귤러 첫걸음(Angular for beginers)
앵귤러 첫걸음(Angular for beginers)앵귤러 첫걸음(Angular for beginers)
앵귤러 첫걸음(Angular for beginers)
 
직접 설계하고 만드는 Io t 백신 초급(한빛미디어) _맛보기
직접 설계하고 만드는 Io t 백신 초급(한빛미디어) _맛보기직접 설계하고 만드는 Io t 백신 초급(한빛미디어) _맛보기
직접 설계하고 만드는 Io t 백신 초급(한빛미디어) _맛보기
 

개발자를 위한 공감세미나 tensor-flow

  • 2. 개요 ● 머신러닝/ 텐서플로우 진입장벽이 너무 높지 않을까? ● 머신러닝이란? ● Linear Regression ● Logistic Regression ● Softmax ● Tensor Flow MNIST ● Deep Learning ● Tensor Flow 어떻게 쓸 수 있을까? ● 스터디하며 어려웠던 점들 공유
  • 3. 발표자 소개 ● #안귀정 #서울 #개발자 #30대 ● 머신러닝 / 텐서플로우 공부중 ● 구글 / 스택 오버플로우 없이는 코딩에 에로사항이 꽃피는 개발자
  • 4. 머신러닝 진입 장벽이 너무 높지 않을까? ● AI, ML 관심은 있지만 진입장벽이 너무 높지 않을까? → 깊이있게 배우고 전문가가 되려면 어렵지만 그건 다른 기술도 마찬가지 ● 우리에겐 Google, Stack OverFlow 가 있다.
  • 5. Alphago / AI / Machine Learning ● Alphago ● Deep Learning ● Machine Learning ● Tensor Flow
  • 6. TensorFlow ? ● Open Source Machine Learning Library ● Numerical computation using data flow graphs ● Data flow graphs describe mathematical computation with a directed graph of nodes & edges. ● Deep Flexibility, True Portability, Connect Research and Production, Auto-Differentiation, Language Options, Maximize Performance …
  • 7. Java Cafe 오프라인 스터디 모집 ● 혼자서는 공부가 힘들 수도 있겠다. ● 여러명이 모여서 의논하다 보면 뭔가 더 도움이 될것 같다. ● 온오프믹스로 텐서플로우 스터디 모집
  • 8. 스터디는 진행했으나 수많은 진입 장벽들 ● 스터디원 모두 인공지능 / 머신 러닝 관련 지식들이 전무 ● 난무하는 새로운 용어들 ● 영어 능력 부족 (관련 자료들 대부분이 영어자료) ● 수학 손뗀지 오래 → 한국어 동영상 강의로 스터디 진행 http://hunkim.github.io/ml/
  • 9. 머신러닝 이란? ● 일반적인 프로그램은 프로그래머가 프로그램의 동작 방식을 설계 ● Explicit programming 으로 처리하기 곤란한 문제들 (Explicit programming) ● 프로그램이 스스로 학습하게 만들어 문제를 해결하자 EX) 스팸필터, 자동주행 : 너무 많은 룰이 필요해서 어려움
  • 10. 머신러닝 - Supervised Learning ● Supervised / Unsupervised Learning ● 지도 학습 → 학습데이터(Training Set) 로 학습
  • 11. 머신러닝 기본 개념 - 학습 데이터
  • 12. 머신러닝 기본 개념 - 기계가 학습한다는 것은? ● 결국 입력값에 대한 결과를 예측하는 소프트웨어 ● 학습 데이터를 이용해 결과 예측 알고리즘을 ● 어떻게 이런 소프트웨어를 만들까? 스스로 수정하는 소프트웨어
  • 13. Linear Regression ● 입력과 결과가 비례 관계에 있다고 보여지는 사건들 → 이를 테면 “공부를 많이하면 공부를 잘할 것이다” 같은 것.
  • 14. Linear Regression - 학습 데이터 학습시간 토익성적학습시간(시간) 토익성적(점) 54 800 8 320 30 600 24 630 46 700 12 680 20 730 37 720 40 700 48 920
  • 15. Linear Regression - 가설 H(X) Y = ax + b h(x) = wx + b 학습시간 토익성적학습시간(시간) 토익성적(점) 54 800 8 320 30 600 24 630 46 700 12 680 20 730 37 720 40 700 48 920
  • 16. Linear Regression 에서 학습의 의미 ● Linear Regression 에서 프로그램이 학습한다는 의미 → 학습 데이터를 기반하여 가설 H(x) 에서 최적의 w(가중치) 와 b(상수) 값을 찾는 것 → H(x) = wx + b ● 어떻게 최적의 값을 찾을것인가? → Cost Function 설계
  • 17. Cost Function 비용 = (실제값1 - 예측값1 ) 2 + (실제값2 - 예측값2 )2 + ….. 학습시간 토익성적학습시간(시간) 토익성적(점) 54 800 8 320 30 600 24 630 46 700 12 680 20 730 37 720 40 700 48 920
  • 18. Cost Function ● 학습하는 프로그램은 Cost Function 의 결과가 가장 적은 최적의 W 와 b 를 찾는 것 ● (w, b) 를 하나로 묶어 W 로 취급 → H(x) = WX ● 어떻게 Cost Function 의 결과를 최적화 할 것인가?
  • 19. Gradient Descent Algorithm Cost Function 을 그래프로 그려보면?
  • 20. Gradient Descent Algorithm ● 현재 예측된 W 값에서 기울기를 구하고 기울기가 양수인 경우 W 값을 Step 만큼 감소, 음수인 경우 Step 만큼 증가 ● 임의의 W값을 선택 ● 해당 점에서 Cost 값이 적은 쪽으로 Step에 따라 경사를 타고 내려감 ● 결국 해당 점에서 미분이 필요
  • 21. Gradient Descent Algorithm (새로운 예측 W) = (현재의 W) - (Cost 함수의 미분값 * Step)
  • 22. Linear Regression - Tensor Flow # Run Code
  • 24. Linear Regression 요약 ● 비례관계에 있다고 여겨지는 사건을 예측할 때 사용 가능 ● 프로그램이 학습한다는 의미는 h(x) = wx + b 에서 최적의 w, b 를 찾는 것 ● (w, b) 를 찾기 위하여 (실제값 - 예측값)^2 을 비용으로 하는 함수 설계 ● 임의의 w, b 를 구하고 해당 값에서 cost 를 줄이는 방향으로 w 와 b 를 수정.
  • 25. MultiVariable Linear Regression 학습시간(시간) 토익성적(점) 54 800 8 320 30 600 24 630 46 700 70 300 20 920 37 720 40 700 48 920
  • 26. MultiVariable Linear Regression 학습시간(시간) 해외거주(월) 토익성적(점) 54 12 800 8 0 320 30 12 600 24 15 630 46 12 700 70 0 300 20 36 920 37 12 720 40 12 700 48 24 920
  • 27. Matrix 학습시간(시간)(x1) 해외거주(월)(x2) 토익성적(점)(y) 54 12 800 8 0 320 30 12 600 24 15 630 46 12 700 70 0 300 20 36 920 37 12 720 40 12 700 48 24 920 ● w 의 행렬을 W, x 의 행렬을 X 라 하면 ● h(x) = WX ● 결국 기존 가설을 그대로 적용 가능
  • 28. MultiVariable Linear Regression - Tensor Flow # Run Code
  • 29. Logistic Classifier ● TRUE, FALSE 로 결과가 정해져야 하는 사건들의 경우 ● 이를테면 “스팸 필터” 등 ● 혹은 주식에서 주가 상승, 주가 하락 예측
  • 30. Logistic Classifier ● Linear Regression 가설을 그대로 적용한다면?
  • 31. Logistic Classifier 학습시간 기술이민 54 PASS 8 FAIL 30 PASS 24 FAIL 46 PASS 12 FAIL 20 FAIL 37 PASS 40 PASS 48 PASS
  • 32. Logistic Classifier 120 학습시간 기술이민 54 PASS 8 FAIL 30 PASS 24 FAIL 46 PASS 12 FAIL 20 FAIL 37 PASS 40 PASS 48 PASS
  • 33. Sigmoid ● H(x) 결과값을 Sigmoid 함수에 넣으면 알아서 0 ~ 1 사이 값이 샤샥 리턴 ● Linear Regression 에서 사용했던 H(x) = WX 를 그대로 유지하고 H(x) 의 결과 값을 Sigmoid g(z) 로 변환
  • 34. Logistic Regression - Cost Function ● Cost 함수의 목적은 예측 결과와 실제 결과가 다르면 비용이 높게, 그렇지 않으면 낮게 나오는 것
  • 35. Logistic Regression - Cost Function
  • 36. Logistic Regression - Tensor Flow # Run Code
  • 37. Multinomial Logistic Regression ● 결과가 A, B, C 등 특정 타입으로 정해지는 경우 ● 이를테면 학점 A, B, C, D, F
  • 38. Multinomial Logistic Regression - Sigmoid ● 여러개의 타입을 계산하는 것이 아닌 각 결과인가 아닌가에 대한 ● EX) 학점 A, B, C, D, F 인 경우 → A[FALSE], B[TRUE], C[FALSE], D[FALSE], F[FALSE] TRUE, FALSE 를 구함
  • 39. Softmax ● 각 분류에 대한 Sigmoid 를 구하고 Sigmoid 총합에 자기자신의 비중을 구함 ● EX) A, B, C, D, F 에 대한 확률을 구함. 각 확률을 더하면 1 → Sigmoid 총합에 자기자신의 비중이므로 각 분류별 % 값이 나오게 됨.
  • 40. Cross Entropy ● 각 결과에 대한 Sigmoid 값을 더한 함수 ● L 은 결과값 array
  • 42. Softmax - Sample 학습시간(시간) 해외거주(월) 영어 학점 54 12 B 8 0 D 30 12 C 24 15 C 46 12 C 70 0 D 20 36 A 37 12 C 40 12 C 48 24 A
  • 44. MNIST - TensorFlow Basic Tutorial Mixed National Institute of Standards and Technology database
  • 45. MNIST ● MNIST 데이터 역시 행렬로 취급하면 된다. ● 지금까지 배운 정보로도 충분히 ML Software 제작 가능 ● 결과값이 0~9 이므로 Softmax 사용
  • 47. MNIST - TensorFlow ● 이게 정말 제대로 돌고 있는가? ● 올바른 방향으로 스터디 하고 있는가? ● 실행할때마다 결과가 달라지니 확신할 수가 없음
  • 48. Client MNIST 테스트 소스 제작 HTML JAVASCRIPT Server FLASK opencv tensorflow
  • 49. MNIST 테스트 소스 제작 https://github.com/ahn-kj/javacafe-tensorflow
  • 51. Deep Learning - NN http://sebastianraschka.com/
  • 52. Deep Learning(Neural Network) ● 신호에 적절한 가중치 곱 과 적절한 상수값이 더해짐 ● Activation Function 으로 다음 뉴런에 신호를 전달할지 안할지가 결정됨
  • 53. NN - Activation Function
  • 54. NN - AND / OR GATE
  • 55. NN - AND / OR GATE
  • 56. NN - AND / OR
  • 57. NN - XOR Problem
  • 58. NN - XOR Problem
  • 66. NN - Deep Q Learning https://www.youtube.com/watch?v=V1eY niJ0Rnk
  • 67. NN - summary of findings up today
  • 70. TensorFlow 어떻게 쓸 수 있을까? ● 시각장애인을 위한 이미지 설명 프로그램 ● 중학교 2학년이 개발 ● RNN / TensorFlow 사용 ● link
  • 71. TensorFlow 어떻게 쓸 수 있을까? ● 오이 품종 자동 분류 기계 ● 일본에서 TensorFlow 로 개발 ● link
  • 72. 발표에서 제대로 다루지 못한 것들 ● Recurrent Neural Network ● Convolutional Neural Network ● Backpropagation Problem ● Google Cloud Machine Learning
  • 73. 스터디 하며 어려웠던 점들 (삽질들) ● 딥러닝의 경우 GPU 가속이 중요 → Macbook 에서는 세팅 어려움, 우분투 추천 ● 부족한 한글자료 → 최근에는 점차 늘어나는 추세 ● 오랜만에 보는 수학공식들 → 개발자 관점에서 크게 중요하지 않을 수 있음. 원리를 이해하고 응용만 해도 충분. ● Learning Rate 조절 → Cost 가 발산하는 경우 확인 필요
  • 74. 자바카페 커뮤니티 PPL ● 오프라인 스터디 위주 개발자 모임 ● 원하는 경우 각종 세미나서 발표기회 제공 ● 오프라인 모임만 가질수 있는 장점 ● 오픈소스 활동