SlideShare a Scribd company logo
1 of 28
인공지능 맛보기
성공회대학교
소프트웨어공학과
박중수
목차
1. 인공지능이란?
2. 인공지능 기술의 종류
3. 그 중에 핫한 딥러닝이란?
4. 딥러닝 대충 맛보기
5. 머신러닝 중 Linear Regration 맛보기
6. 머신러닝 중 Sigmoid 맛보기
7. Sigmoid로 과목 패스 논패스 예측해보기
인공지능이란?
- 인간의 학습능력과 추론능력, 지각능력, 자연언어의 이해능력 등을
컴퓨터 프로그램으로 실현한 기술
- “학습”이 주요 키워드. 학습을 통해 그 경험으로 “판단”
- 예) – 바둑 룰과 기보를 학습해 이세돌을 이긴 “알파고”
- - 소비자의 구매패턴을 학습해 쿠폰을 발행해주는 마트시스템
- - 그림에서 화풍을 학습하여 사진에 화풍을 입혀주는 시스템
- - 운전을 학습해 운전하는 자율주행차
인공지능 기술의 종류
- 지도학습
- 비지도학습
지도학습
- 입력과 출력 값에 대해 레이블(이름)을 지정해주는 학습방법
- 분류와 예측에 사용
- 예) 수업시작시간+전 날 음주여부+집과의 거리로 지각여부를 예측
수업시작시간 전 날 음주여부 집과의 거리 지각여부
9시 YES 보통 YES
9시 YES 보통 YES
9시 NO 멀음 NO
10시 NO 가까움 NO
10시 YES 가까움 YES
10시 NO 멀음 NO
이 데이터를 학습 후 INPUT
수업시작시간 9시
음주안함
집과의 거리 멀음
-> 예측한 지각여부 : NO
비지도학습
- 값에 레이블이 없음
- 비슷한 값들끼리 군집화
9시 YES 보통
9시 YES 보통
9시 NO 멀음
10시 NO 가까움
10시 YES 가까움
10시 NO 멀음
딥러닝이란?
- 사람의 뇌를 흉내낸 인공신경망을 기반으로 패턴을 추론하는 기술
- 인간의 두뇌처럼 많은 데이터속에서 패턴을 찾아내 사물을 구분하는
정보처리방식
- 이러한 신경망을 여러 겹으로 깊게(Deep) 쌓아서 정확도를 높임. 그래서
Deep Learning
딥러닝 살짝 맛 보기
- 텐서플로우 Playground
http://playground.tensorflow.org/
학습 알고리즘, 테스트 데이터셋 등 여러 요소를 이용해 학습내용을 눈으로
확인할 수 있음.
실습에서 사용하는 학습 알고리즘은 Sigmoid를 사용.
맛 본 결과
2000번 학습.
결과 = 거의 정확하다
딥러닝 어디까지 왔나
- 학습한 내용을 바탕으로 새로운 컨텐츠를 생산까지
- 만약 학습한 내용을 이해했다면, 그 내용을 바탕으로 새로운 컨텐츠를
생산할 수 있어야한다 (GAN : Generative Adversarial Networks)
예) 1+2를 이해했다면 4+6도
가능해야한다
2017년 3월 31일 발표된 구글의
BEGAN이 생성한 얼굴
Deep Learning을 이용해 화풍을 입힌 내 사진
Linear Regration 맛보기
- 지도 학습중 예측 모델
- 데이터를 가르는 기울기 W를 구해야함
Linear Regration 개념
X에 대한 예측값 = 기울기(Weight) * X
* 즉 W값을 잘 조절해야함
예측값이 맞았는지에 대한 검증 = Cost함수
검증값 = 예측값-실제값의 제곱을 평균낸 값
Cost함수를 그래프로 그리면 왼쪽같이 나옴.
Y축이 낮을수록 정확도가 높아짐
예측값을 최적화(최적의 W값을 찾는법)
최적화값 = 기울기- (Learning Rate * 미분(Cost))
그래프의 기울기를 계산하여 제일 낮은 곳을 찾는다
출처 : 홍콩과기대 김성훈교수님의 모두를 위한 딥러닝 강의
Sigmoid 맛보기
- 지도 학습중 분류 모델
- 분류를 위해 0과 1사이의 값이 나와야함
Sigmoid 맛보기
X에 대한 예측값
z = H(X)
Cost = Y가 1일경우와 0일경우로 나뉨
하지만 그렇게 나누면 Cost함수의 그래프가
원형으로 나오지 않기 때문에 두 식을 합하면
아래와 같이 나옴
예측값을 최적화(최적의 W값을 찾는법)
최적화값 = 기울기- (Learning Rate * 미분(Cost))
똑같다
Sigmoid로 Pass NonePass 예측
Tensorflow 사용. IDE는 pycharm
입력값 : 공부시간, 출석 수
출력값 : 과목 Pass 예측값
오른쪽 사진은 테스트데이터
- 라이브러리 import
- 데이터 로드 및 레이블링
Sigmoid로 Pass NonePass 예측
- 텐서플로우에서 변수선언.
- placeholder는 추후에 값을 넣어주겠단 뜻.
- Shape에 넘기는 배열의 첫번째 인자는 row의 개수. 개수제한이 없어 None으로 지정했다.
- 두 번째인자는 column의 개수. X는 공부한시간, 출석수 2개이므로 2, Y는 예측값
1개이므로 1을 넣었다.
Sigmoid로 Pass NonePass 예측
- 텐서플로우에서 지원해주는 Sigmoid함수. 입력값이 배열이기때문에
H(X)를 행렬곱(matmul)으로 계산했다. ( H(X) = WX+b )
Sigmoid로 Pass NonePass 예측
- 위와 같은 식을 코드로 만들었다. (대략 보면 알 수 있음)
Sigmoid로 Pass NonePass 예측
- 앞에 붙은 알파(learning_rate)를 0.01로 주고 cost함수를 인자로 넘겨 최적화시킨다
- 텐서플로우에서 지원하는 내장함수 GradientDescentOptimizer를 사용
Sigmoid로 Pass NonePass 예측
- 예측값이 0.5보다 높으면 1로 처리하고, 아니라면 0으로 처리한다.
Sigmoid로 Pass NonePass 예측
- 실제값과 비교하여 정확도를 측정한다.
Sigmoid로 Pass NonePass 예측
- Global_variables_initializer() 함수로 변수들을 초기화시키고 1만번 학습한다.
- 학습하는 동안 200번애 1번씩 cost가 얼만큼 변하는지 출력한다.
(cost가 낮을수록 정확도가 높다)
- 마지막에 테스트데이터들을 입력값으로 하여 예측을 제대로 하는지 확인한다.
Sigmoid로 Pass NonePass 예측
- 일단 cost의 출력값을 보면 점점
cost의 값이 낮아지는 것을 볼 수
있다. (점점 최적화된 값을
찾아가는 과정)
Sigmoid로 Pass NonePass 예측
- 출력값과 정확도가 출력된 것을 보면 테스트데이터의 결과값과 예측값이 같은 것을 볼 수
있다.
- 그러므로 정확도는 1.0이 출력되었다. (1.0이 제일 높은 수)
실제로 돌려보기
Q & A
감사합니다

More Related Content

What's hot

15.ai term project_final
15.ai term project_final15.ai term project_final
15.ai term project_final호상 장
 
CoreDot TechSeminar 2018 - Session4 Park Eonyong
CoreDot TechSeminar 2018 - Session4 Park EonyongCoreDot TechSeminar 2018 - Session4 Park Eonyong
CoreDot TechSeminar 2018 - Session4 Park EonyongCore.Today
 
7.woring with text data
7.woring with text data7.woring with text data
7.woring with text dataHaesun Park
 
7.woring with text data(epoch#2)
7.woring with text data(epoch#2)7.woring with text data(epoch#2)
7.woring with text data(epoch#2)Haesun Park
 
1.introduction(epoch#2)
1.introduction(epoch#2)1.introduction(epoch#2)
1.introduction(epoch#2)Haesun Park
 
기계학습 Overview
기계학습  Overview기계학습  Overview
기계학습 Overviewjaeho kang
 

What's hot (6)

15.ai term project_final
15.ai term project_final15.ai term project_final
15.ai term project_final
 
CoreDot TechSeminar 2018 - Session4 Park Eonyong
CoreDot TechSeminar 2018 - Session4 Park EonyongCoreDot TechSeminar 2018 - Session4 Park Eonyong
CoreDot TechSeminar 2018 - Session4 Park Eonyong
 
7.woring with text data
7.woring with text data7.woring with text data
7.woring with text data
 
7.woring with text data(epoch#2)
7.woring with text data(epoch#2)7.woring with text data(epoch#2)
7.woring with text data(epoch#2)
 
1.introduction(epoch#2)
1.introduction(epoch#2)1.introduction(epoch#2)
1.introduction(epoch#2)
 
기계학습 Overview
기계학습  Overview기계학습  Overview
기계학습 Overview
 

Similar to 인공지능 맛보기

Machine learning bysogood
Machine learning bysogoodMachine learning bysogood
Machine learning bysogoodS.Good Kim
 
00_ML 기초_기본개념
00_ML 기초_기본개념00_ML 기초_기본개념
00_ML 기초_기본개념AHRA CHO
 
Machine learning linearregression
Machine learning linearregressionMachine learning linearregression
Machine learning linearregressionHaYoungChoi17
 
[D2대학생세미나]lovely algrorithm
[D2대학생세미나]lovely algrorithm[D2대학생세미나]lovely algrorithm
[D2대학생세미나]lovely algrorithmNAVER D2
 
링크드인의 Big Data Recommendation Products - 어제의 데이터를 통해 내일을 예측한다
링크드인의 Big Data Recommendation Products - 어제의 데이터를 통해 내일을 예측한다링크드인의 Big Data Recommendation Products - 어제의 데이터를 통해 내일을 예측한다
링크드인의 Big Data Recommendation Products - 어제의 데이터를 통해 내일을 예측한다Evion Kim
 
Ml for 정형데이터
Ml for 정형데이터Ml for 정형데이터
Ml for 정형데이터JEEHYUN PAIK
 
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic용진 조
 
Introduction to SAC(Soft Actor-Critic)
Introduction to SAC(Soft Actor-Critic)Introduction to SAC(Soft Actor-Critic)
Introduction to SAC(Soft Actor-Critic)Suhyun Cho
 
데이터분석의 길 5: “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)
데이터분석의 길 5:  “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)데이터분석의 길 5:  “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)
데이터분석의 길 5: “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)Jaimie Kwon (권재명)
 
Ai 그까이거
Ai 그까이거Ai 그까이거
Ai 그까이거도형 임
 
안.전.제.일. 강화학습!
안.전.제.일. 강화학습!안.전.제.일. 강화학습!
안.전.제.일. 강화학습!Dongmin Lee
 
머신 러닝을 해보자 1장 (2022년 스터디)
머신 러닝을 해보자 1장 (2022년 스터디)머신 러닝을 해보자 1장 (2022년 스터디)
머신 러닝을 해보자 1장 (2022년 스터디)ssusercdf17c
 
파이썬(Python) 으로 나만의 딥러닝 API 만들기 강좌 (Feat. AutoAI )
파이썬(Python) 으로 나만의 딥러닝 API 만들기 강좌 (Feat. AutoAI ) 파이썬(Python) 으로 나만의 딥러닝 API 만들기 강좌 (Feat. AutoAI )
파이썬(Python) 으로 나만의 딥러닝 API 만들기 강좌 (Feat. AutoAI ) Yunho Maeng
 
파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)SK(주) C&C - 강병호
 
머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)Byung-han Lee
 
[소프트웨어교육] 알고리즘 교사 연수 자료
[소프트웨어교육] 알고리즘 교사 연수 자료[소프트웨어교육] 알고리즘 교사 연수 자료
[소프트웨어교육] 알고리즘 교사 연수 자료Sangsu Song
 
딥러닝 기본 원리의 이해
딥러닝 기본 원리의 이해딥러닝 기본 원리의 이해
딥러닝 기본 원리의 이해Hee Won Park
 

Similar to 인공지능 맛보기 (20)

Machine learning bysogood
Machine learning bysogoodMachine learning bysogood
Machine learning bysogood
 
00_ML 기초_기본개념
00_ML 기초_기본개념00_ML 기초_기본개념
00_ML 기초_기본개념
 
Machine learning linearregression
Machine learning linearregressionMachine learning linearregression
Machine learning linearregression
 
MachineLearning
MachineLearningMachineLearning
MachineLearning
 
[D2대학생세미나]lovely algrorithm
[D2대학생세미나]lovely algrorithm[D2대학생세미나]lovely algrorithm
[D2대학생세미나]lovely algrorithm
 
링크드인의 Big Data Recommendation Products - 어제의 데이터를 통해 내일을 예측한다
링크드인의 Big Data Recommendation Products - 어제의 데이터를 통해 내일을 예측한다링크드인의 Big Data Recommendation Products - 어제의 데이터를 통해 내일을 예측한다
링크드인의 Big Data Recommendation Products - 어제의 데이터를 통해 내일을 예측한다
 
Ml for 정형데이터
Ml for 정형데이터Ml for 정형데이터
Ml for 정형데이터
 
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic
 
Introduction to SAC(Soft Actor-Critic)
Introduction to SAC(Soft Actor-Critic)Introduction to SAC(Soft Actor-Critic)
Introduction to SAC(Soft Actor-Critic)
 
데이터분석의 길 5: “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)
데이터분석의 길 5:  “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)데이터분석의 길 5:  “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)
데이터분석의 길 5: “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)
 
CS294-112 18
CS294-112 18CS294-112 18
CS294-112 18
 
Ai 그까이거
Ai 그까이거Ai 그까이거
Ai 그까이거
 
안.전.제.일. 강화학습!
안.전.제.일. 강화학습!안.전.제.일. 강화학습!
안.전.제.일. 강화학습!
 
머신 러닝을 해보자 1장 (2022년 스터디)
머신 러닝을 해보자 1장 (2022년 스터디)머신 러닝을 해보자 1장 (2022년 스터디)
머신 러닝을 해보자 1장 (2022년 스터디)
 
파이썬(Python) 으로 나만의 딥러닝 API 만들기 강좌 (Feat. AutoAI )
파이썬(Python) 으로 나만의 딥러닝 API 만들기 강좌 (Feat. AutoAI ) 파이썬(Python) 으로 나만의 딥러닝 API 만들기 강좌 (Feat. AutoAI )
파이썬(Python) 으로 나만의 딥러닝 API 만들기 강좌 (Feat. AutoAI )
 
Ml
MlMl
Ml
 
파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)
 
머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)
 
[소프트웨어교육] 알고리즘 교사 연수 자료
[소프트웨어교육] 알고리즘 교사 연수 자료[소프트웨어교육] 알고리즘 교사 연수 자료
[소프트웨어교육] 알고리즘 교사 연수 자료
 
딥러닝 기본 원리의 이해
딥러닝 기본 원리의 이해딥러닝 기본 원리의 이해
딥러닝 기본 원리의 이해
 

인공지능 맛보기

  • 2. 목차 1. 인공지능이란? 2. 인공지능 기술의 종류 3. 그 중에 핫한 딥러닝이란? 4. 딥러닝 대충 맛보기 5. 머신러닝 중 Linear Regration 맛보기 6. 머신러닝 중 Sigmoid 맛보기 7. Sigmoid로 과목 패스 논패스 예측해보기
  • 3. 인공지능이란? - 인간의 학습능력과 추론능력, 지각능력, 자연언어의 이해능력 등을 컴퓨터 프로그램으로 실현한 기술 - “학습”이 주요 키워드. 학습을 통해 그 경험으로 “판단” - 예) – 바둑 룰과 기보를 학습해 이세돌을 이긴 “알파고” - - 소비자의 구매패턴을 학습해 쿠폰을 발행해주는 마트시스템 - - 그림에서 화풍을 학습하여 사진에 화풍을 입혀주는 시스템 - - 운전을 학습해 운전하는 자율주행차
  • 4. 인공지능 기술의 종류 - 지도학습 - 비지도학습
  • 5. 지도학습 - 입력과 출력 값에 대해 레이블(이름)을 지정해주는 학습방법 - 분류와 예측에 사용 - 예) 수업시작시간+전 날 음주여부+집과의 거리로 지각여부를 예측 수업시작시간 전 날 음주여부 집과의 거리 지각여부 9시 YES 보통 YES 9시 YES 보통 YES 9시 NO 멀음 NO 10시 NO 가까움 NO 10시 YES 가까움 YES 10시 NO 멀음 NO 이 데이터를 학습 후 INPUT 수업시작시간 9시 음주안함 집과의 거리 멀음 -> 예측한 지각여부 : NO
  • 6. 비지도학습 - 값에 레이블이 없음 - 비슷한 값들끼리 군집화 9시 YES 보통 9시 YES 보통 9시 NO 멀음 10시 NO 가까움 10시 YES 가까움 10시 NO 멀음
  • 7. 딥러닝이란? - 사람의 뇌를 흉내낸 인공신경망을 기반으로 패턴을 추론하는 기술 - 인간의 두뇌처럼 많은 데이터속에서 패턴을 찾아내 사물을 구분하는 정보처리방식 - 이러한 신경망을 여러 겹으로 깊게(Deep) 쌓아서 정확도를 높임. 그래서 Deep Learning
  • 8. 딥러닝 살짝 맛 보기 - 텐서플로우 Playground http://playground.tensorflow.org/ 학습 알고리즘, 테스트 데이터셋 등 여러 요소를 이용해 학습내용을 눈으로 확인할 수 있음. 실습에서 사용하는 학습 알고리즘은 Sigmoid를 사용.
  • 9. 맛 본 결과 2000번 학습. 결과 = 거의 정확하다
  • 10. 딥러닝 어디까지 왔나 - 학습한 내용을 바탕으로 새로운 컨텐츠를 생산까지 - 만약 학습한 내용을 이해했다면, 그 내용을 바탕으로 새로운 컨텐츠를 생산할 수 있어야한다 (GAN : Generative Adversarial Networks) 예) 1+2를 이해했다면 4+6도 가능해야한다 2017년 3월 31일 발표된 구글의 BEGAN이 생성한 얼굴
  • 11. Deep Learning을 이용해 화풍을 입힌 내 사진
  • 12. Linear Regration 맛보기 - 지도 학습중 예측 모델 - 데이터를 가르는 기울기 W를 구해야함
  • 13. Linear Regration 개념 X에 대한 예측값 = 기울기(Weight) * X * 즉 W값을 잘 조절해야함 예측값이 맞았는지에 대한 검증 = Cost함수 검증값 = 예측값-실제값의 제곱을 평균낸 값 Cost함수를 그래프로 그리면 왼쪽같이 나옴. Y축이 낮을수록 정확도가 높아짐 예측값을 최적화(최적의 W값을 찾는법) 최적화값 = 기울기- (Learning Rate * 미분(Cost)) 그래프의 기울기를 계산하여 제일 낮은 곳을 찾는다 출처 : 홍콩과기대 김성훈교수님의 모두를 위한 딥러닝 강의
  • 14. Sigmoid 맛보기 - 지도 학습중 분류 모델 - 분류를 위해 0과 1사이의 값이 나와야함
  • 15. Sigmoid 맛보기 X에 대한 예측값 z = H(X) Cost = Y가 1일경우와 0일경우로 나뉨 하지만 그렇게 나누면 Cost함수의 그래프가 원형으로 나오지 않기 때문에 두 식을 합하면 아래와 같이 나옴 예측값을 최적화(최적의 W값을 찾는법) 최적화값 = 기울기- (Learning Rate * 미분(Cost)) 똑같다
  • 16. Sigmoid로 Pass NonePass 예측 Tensorflow 사용. IDE는 pycharm 입력값 : 공부시간, 출석 수 출력값 : 과목 Pass 예측값 오른쪽 사진은 테스트데이터
  • 17. - 라이브러리 import - 데이터 로드 및 레이블링 Sigmoid로 Pass NonePass 예측
  • 18. - 텐서플로우에서 변수선언. - placeholder는 추후에 값을 넣어주겠단 뜻. - Shape에 넘기는 배열의 첫번째 인자는 row의 개수. 개수제한이 없어 None으로 지정했다. - 두 번째인자는 column의 개수. X는 공부한시간, 출석수 2개이므로 2, Y는 예측값 1개이므로 1을 넣었다. Sigmoid로 Pass NonePass 예측
  • 19. - 텐서플로우에서 지원해주는 Sigmoid함수. 입력값이 배열이기때문에 H(X)를 행렬곱(matmul)으로 계산했다. ( H(X) = WX+b ) Sigmoid로 Pass NonePass 예측
  • 20. - 위와 같은 식을 코드로 만들었다. (대략 보면 알 수 있음) Sigmoid로 Pass NonePass 예측
  • 21. - 앞에 붙은 알파(learning_rate)를 0.01로 주고 cost함수를 인자로 넘겨 최적화시킨다 - 텐서플로우에서 지원하는 내장함수 GradientDescentOptimizer를 사용 Sigmoid로 Pass NonePass 예측
  • 22. - 예측값이 0.5보다 높으면 1로 처리하고, 아니라면 0으로 처리한다. Sigmoid로 Pass NonePass 예측 - 실제값과 비교하여 정확도를 측정한다.
  • 23. Sigmoid로 Pass NonePass 예측 - Global_variables_initializer() 함수로 변수들을 초기화시키고 1만번 학습한다. - 학습하는 동안 200번애 1번씩 cost가 얼만큼 변하는지 출력한다. (cost가 낮을수록 정확도가 높다) - 마지막에 테스트데이터들을 입력값으로 하여 예측을 제대로 하는지 확인한다.
  • 24. Sigmoid로 Pass NonePass 예측 - 일단 cost의 출력값을 보면 점점 cost의 값이 낮아지는 것을 볼 수 있다. (점점 최적화된 값을 찾아가는 과정)
  • 25. Sigmoid로 Pass NonePass 예측 - 출력값과 정확도가 출력된 것을 보면 테스트데이터의 결과값과 예측값이 같은 것을 볼 수 있다. - 그러므로 정확도는 1.0이 출력되었다. (1.0이 제일 높은 수)
  • 27. Q & A