Submit Search
Upload
선형대수 06. 영벡터공간과 해집합
•
Download as PPTX, PDF
•
2 likes
•
2,844 views
AHRA CHO
Follow
한양대 이상화 교수님 <선형대수> KOCW 6강. 영벡터공간과 해집합 강의 정리 노트
Read less
Read more
Education
Report
Share
Report
Share
1 of 7
Download now
Recommended
선형대수 05. 열벡터공간
선형대수 05. 열벡터공간
AHRA CHO
선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)
AHRA CHO
선형대수 04. Inverse and Transpose
선형대수 04. Inverse and Transpose
AHRA CHO
Newton-Raphson Method
Newton-Raphson Method
Sunith Guraddi
lagrange interpolation
lagrange interpolation
ayush raj
Solving linear equation system
Solving linear equation system
sulaiman_karim
Graph Neural Network 1부
Graph Neural Network 1부
seungwoo kim
linear transformation and rank nullity theorem
linear transformation and rank nullity theorem
Manthan Chavda
Recommended
선형대수 05. 열벡터공간
선형대수 05. 열벡터공간
AHRA CHO
선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)
AHRA CHO
선형대수 04. Inverse and Transpose
선형대수 04. Inverse and Transpose
AHRA CHO
Newton-Raphson Method
Newton-Raphson Method
Sunith Guraddi
lagrange interpolation
lagrange interpolation
ayush raj
Solving linear equation system
Solving linear equation system
sulaiman_karim
Graph Neural Network 1부
Graph Neural Network 1부
seungwoo kim
linear transformation and rank nullity theorem
linear transformation and rank nullity theorem
Manthan Chavda
simpion's 3/8 rule
simpion's 3/8 rule
sharma230399
Interpolation in Numerical Methods
Interpolation in Numerical Methods
Dr. Tushar J Bhatt
2.2 inverse of a matrix
2.2 inverse of a matrix
Self-Employed
A FOCUS ON FIXED POINT THEOREM IN BANACH SPACE
A FOCUS ON FIXED POINT THEOREM IN BANACH SPACE
IJESM JOURNAL
interpolation
interpolation
8laddu8
Cubic Spline Interpolation
Cubic Spline Interpolation
VARUN KUMAR
Derivation of Simpson's 1/3 rule
Derivation of Simpson's 1/3 rule
HapPy SumOn
Newton raphson method
Newton raphson method
Bijay Mishra
Cubic Equation
Cubic Equation
reynosje
Variational Inference in Python
Variational Inference in Python
Peadar Coyle
NUMERICAL INTEGRATION : ERROR FORMULA, GAUSSIAN QUADRATURE FORMULA
NUMERICAL INTEGRATION : ERROR FORMULA, GAUSSIAN QUADRATURE FORMULA
KHORASIYA DEVANSU
Engineering Mathematics & Probability Distributions
Engineering Mathematics & Probability Distributions
International Institute of Information Technology (I²IT)
Lesson 15 pappus theorem
Lesson 15 pappus theorem
Lawrence De Vera
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...
Joonhyung Lee
Integral Calculus
Integral Calculus
MANISHSAHU106
Feature Pyramid Network, FPN
Feature Pyramid Network, FPN
Institute of Agricultural Machinery, NARO
Numerical Methods
Numerical Methods
Teja Ande
Bayesian Neural Networks
Bayesian Neural Networks
Natan Katz
Taylor's and Maclaurin series
Taylor's and Maclaurin series
Harsh Parmar
Geometric Deep Learning
Geometric Deep Learning
PetteriTeikariPhD
선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영
AHRA CHO
선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization
AHRA CHO
More Related Content
What's hot
simpion's 3/8 rule
simpion's 3/8 rule
sharma230399
Interpolation in Numerical Methods
Interpolation in Numerical Methods
Dr. Tushar J Bhatt
2.2 inverse of a matrix
2.2 inverse of a matrix
Self-Employed
A FOCUS ON FIXED POINT THEOREM IN BANACH SPACE
A FOCUS ON FIXED POINT THEOREM IN BANACH SPACE
IJESM JOURNAL
interpolation
interpolation
8laddu8
Cubic Spline Interpolation
Cubic Spline Interpolation
VARUN KUMAR
Derivation of Simpson's 1/3 rule
Derivation of Simpson's 1/3 rule
HapPy SumOn
Newton raphson method
Newton raphson method
Bijay Mishra
Cubic Equation
Cubic Equation
reynosje
Variational Inference in Python
Variational Inference in Python
Peadar Coyle
NUMERICAL INTEGRATION : ERROR FORMULA, GAUSSIAN QUADRATURE FORMULA
NUMERICAL INTEGRATION : ERROR FORMULA, GAUSSIAN QUADRATURE FORMULA
KHORASIYA DEVANSU
Engineering Mathematics & Probability Distributions
Engineering Mathematics & Probability Distributions
International Institute of Information Technology (I²IT)
Lesson 15 pappus theorem
Lesson 15 pappus theorem
Lawrence De Vera
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...
Joonhyung Lee
Integral Calculus
Integral Calculus
MANISHSAHU106
Feature Pyramid Network, FPN
Feature Pyramid Network, FPN
Institute of Agricultural Machinery, NARO
Numerical Methods
Numerical Methods
Teja Ande
Bayesian Neural Networks
Bayesian Neural Networks
Natan Katz
Taylor's and Maclaurin series
Taylor's and Maclaurin series
Harsh Parmar
Geometric Deep Learning
Geometric Deep Learning
PetteriTeikariPhD
What's hot
(20)
simpion's 3/8 rule
simpion's 3/8 rule
Interpolation in Numerical Methods
Interpolation in Numerical Methods
2.2 inverse of a matrix
2.2 inverse of a matrix
A FOCUS ON FIXED POINT THEOREM IN BANACH SPACE
A FOCUS ON FIXED POINT THEOREM IN BANACH SPACE
interpolation
interpolation
Cubic Spline Interpolation
Cubic Spline Interpolation
Derivation of Simpson's 1/3 rule
Derivation of Simpson's 1/3 rule
Newton raphson method
Newton raphson method
Cubic Equation
Cubic Equation
Variational Inference in Python
Variational Inference in Python
NUMERICAL INTEGRATION : ERROR FORMULA, GAUSSIAN QUADRATURE FORMULA
NUMERICAL INTEGRATION : ERROR FORMULA, GAUSSIAN QUADRATURE FORMULA
Engineering Mathematics & Probability Distributions
Engineering Mathematics & Probability Distributions
Lesson 15 pappus theorem
Lesson 15 pappus theorem
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...
Integral Calculus
Integral Calculus
Feature Pyramid Network, FPN
Feature Pyramid Network, FPN
Numerical Methods
Numerical Methods
Bayesian Neural Networks
Bayesian Neural Networks
Taylor's and Maclaurin series
Taylor's and Maclaurin series
Geometric Deep Learning
Geometric Deep Learning
Similar to 선형대수 06. 영벡터공간과 해집합
선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영
AHRA CHO
선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization
AHRA CHO
Ray-triangle intersection
Ray-triangle intersection
동환 김
행렬
행렬
Taeung Ra
행렬
행렬
QooJuice
6장 그래프 알고리즘
6장 그래프 알고리즘
Vong Sik Kong
0131 1 spectral_theorem_transformation
0131 1 spectral_theorem_transformation
Jeonghun Yoon
Linear algebra.pptx
Linear algebra.pptx
GeonWooYoo1
선형대수 11강 벡터 투영과 최소제곱법
선형대수 11강 벡터 투영과 최소제곱법
AHRA CHO
Eigendecomposition and pca
Eigendecomposition and pca
Jinhwan Suk
Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)
강민국 강민국
04. logistic regression ( 로지스틱 회귀 )
04. logistic regression ( 로지스틱 회귀 )
Jeonghun Yoon
벡터
벡터
QooJuice
Neural network (perceptron)
Neural network (perceptron)
Jeonghun Yoon
06. graph mining
06. graph mining
Jeonghun Yoon
선형대수 07. 선형독립, 4가지 부벡터공간
선형대수 07. 선형독립, 4가지 부벡터공간
AHRA CHO
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
AHRA CHO
0124 1 linear_algebra_basic_vector
0124 1 linear_algebra_basic_vector
Jeonghun Yoon
08. spectal clustering
08. spectal clustering
Jeonghun Yoon
Auto-Encoders and Variational Auto-Encoders
Auto-Encoders and Variational Auto-Encoders
Jinho Lee
Similar to 선형대수 06. 영벡터공간과 해집합
(20)
선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영
선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization
Ray-triangle intersection
Ray-triangle intersection
행렬
행렬
행렬
행렬
6장 그래프 알고리즘
6장 그래프 알고리즘
0131 1 spectral_theorem_transformation
0131 1 spectral_theorem_transformation
Linear algebra.pptx
Linear algebra.pptx
선형대수 11강 벡터 투영과 최소제곱법
선형대수 11강 벡터 투영과 최소제곱법
Eigendecomposition and pca
Eigendecomposition and pca
Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)
04. logistic regression ( 로지스틱 회귀 )
04. logistic regression ( 로지스틱 회귀 )
벡터
벡터
Neural network (perceptron)
Neural network (perceptron)
06. graph mining
06. graph mining
선형대수 07. 선형독립, 4가지 부벡터공간
선형대수 07. 선형독립, 4가지 부벡터공간
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
0124 1 linear_algebra_basic_vector
0124 1 linear_algebra_basic_vector
08. spectal clustering
08. spectal clustering
Auto-Encoders and Variational Auto-Encoders
Auto-Encoders and Variational Auto-Encoders
More from AHRA CHO
선형대수 03. LU Decomposition
선형대수 03. LU Decomposition
AHRA CHO
선형대수 02. 가우스 소거법
선형대수 02. 가우스 소거법
AHRA CHO
01_ML 기초_선형회귀_Linear Regression
01_ML 기초_선형회귀_Linear Regression
AHRA CHO
00_ML 기초_기본개념
00_ML 기초_기본개념
AHRA CHO
[2012 2] 1주차 사회적경제 개요
[2012 2] 1주차 사회적경제 개요
AHRA CHO
[2012 2] 1주차 사회적경제의 역사
[2012 2] 1주차 사회적경제의 역사
AHRA CHO
More from AHRA CHO
(6)
선형대수 03. LU Decomposition
선형대수 03. LU Decomposition
선형대수 02. 가우스 소거법
선형대수 02. 가우스 소거법
01_ML 기초_선형회귀_Linear Regression
01_ML 기초_선형회귀_Linear Regression
00_ML 기초_기본개념
00_ML 기초_기본개념
[2012 2] 1주차 사회적경제 개요
[2012 2] 1주차 사회적경제 개요
[2012 2] 1주차 사회적경제의 역사
[2012 2] 1주차 사회적경제의 역사
선형대수 06. 영벡터공간과 해집합
1.
Linear Algebra 6. 영벡터공간과
해집합 한양대 이상화 교수님 <선형대수> http://www.kocw.net/home/search/kemView.do?kemId=977757
2.
영벡터공간 (Null Space
of A) • 𝑨𝒙 = 𝟎 (𝒎 < 𝒏) 조건을 만족하는 𝑥의 해집합을 ‘영벡터공간’이라고 한다. • The null space of a matrix 𝐴 consists of all vectors 𝑥 such that 𝐴𝑥 = 0. • 𝑁 𝐴 = 𝑥 𝐴𝑥 = 0 } • 해집합이 벡터공간의 조건을 만족하는가? • 𝑨𝒙 = 𝟎 and 𝑨𝒙′ = 𝟎 𝑨(𝒙 + 𝒙′ ) = 𝟎 : closed under addition • 𝑨𝒙 = 𝟎 𝒄 𝑨𝒙 = 𝒄 × 𝟎 = 𝟎 : closed under scalar multiplication • 1 0 5 4 2 4 𝑢 𝑣 = 0 0 0 (0,0)일 때 성립 • 1 0 1 5 4 9 2 4 6 𝑢 𝑣 𝑤 = 0 0 0 N(A)는 직선, c 1 1 −1 𝜖 𝑁(𝐴)
3.
Solving 𝑨𝒙 =
𝟎 and 𝑨𝒙 = 𝒃 • 𝑨𝒙 = 𝟎에서 𝑨의 역행렬이 존재한다면, 𝑥 = 𝐴−1 × 0, 즉 𝑥 = 0만이 해집합(𝑁(𝐴))에 포함된다. 반대로 𝐶(𝐴)는 𝑨𝒙 = 𝒃에서 모든 𝒃 를 포함하는 Whole Space이다. • When the null space contains more than the zero vector column, the column space contains less than all vectors. • 𝐴𝑥 𝑝 = 𝑏 and 𝐴𝑥 𝑛 = 0 𝑨(𝒙 𝒑 + 𝒙 𝒏) = 𝒃 • 1 1 2 2 𝑥 𝑦 = 𝑏1 𝑏2 • 𝑏2 ≠ 2𝑏1 해가 없음 • 𝑏2 = 2𝑏1 해가 무수히 많음 𝑥 𝑝 = 1, 1 1 1 2 2 𝑥 𝑦 = 2 4 𝑥 𝑛 = −1, 1 or −𝑐, 𝑐 𝑥 𝑝 + 𝑥 𝑛 = 1 1 + 𝑐 −1 1 = 1 − 𝑐 1 + 𝑐 All 𝑥 𝑛 Lines of all solutions : 𝒙 = 𝒙 𝒑 + 𝒙 𝒏 𝑥 𝑛과 𝑥 𝑝 중 한 값을 알면 𝑥 𝑝 전체를 알 수 있다.
4.
• A의 역행렬이
존재하지 않을 때 N(A) 해집합을 구하는 정형화된 방식 가우스 소거법의 연장 𝐴𝑥 = 0 ⇒ 1 3 3 2 2 6 9 7 −1 −3 3 4 𝑢 𝑣 𝑤 𝑧 = 0 0 0 1 3 3 2 2 6 9 7 −1 −3 3 4 1 3 3 2 0 0 3 3 0 0 6 6 1 3 3 2 0 0 3 3 0 0 0 0 1 3 3 2 0 0 1 1 0 0 0 0 1 3 0 −1 0 0 1 1 0 0 0 0 Echelon Form U and Row Reduced Form R 마지막 Pivot는 0이어야 함 (그렇지 않으면 z=0일 때만 해가 발생) Echelon Matrix U Pivot을 모두 1로 Pivot 윗 행을 모두 0으로 변환 Row Reduced Echelon Matrix R * 𝐴𝑥 = 𝑏를 가우스 소거법으로 풀 때는 𝑏 값도 포함해서 같이 수정했지만, 𝐴𝑥 = 0의 경우에는 0 벡터에는 어떤 값을 곱해도 0이기 때문에 수정할 필요가 없이 행렬 𝐴만 𝑅형태로 변형하면 된다.
5.
Ax=0의 해집합 구하기 •
𝑅𝑥 = 0을 활용하여 𝐴𝑥 = 0의 해를 구하자! • Pivot Variable and Free Variable 𝑥 = 𝑢 𝑣 𝑤 𝑧 일 때, Row Reduced Matrix R = 1 3 0 −1 0 0 1 1 0 0 0 0 에서 Pivot이 있는 자리의 미지수 𝑢, 𝑤를 Pivot Variable, 그 외의 미지수 𝑣, 𝑧를 Free Variable이라고 한다. 𝑅𝑥 = 1 3 0 −1 0 0 1 1 0 0 0 0 𝑢 𝑣 𝑤 𝑧 = 𝑢 + 3𝑣 − 𝑧 𝑤 + 𝑧 = 0 𝑢 = −3𝑣 + 𝑧 𝑤 = −𝑧 𝑢 𝑣 𝑤 𝑧 = −3𝑣 + 𝑧 𝑣 −𝑧 𝑧 = 𝑣 −3 1 0 0 + 𝑧 1 0 −1 1 Pivot Variable들을 Free Variable로 치환 Special solution 𝑵(𝑨)는 special solution의 Linear Combination!
6.
Ax=b의 해집합 구하기 •
같은 방법으로 𝐴𝑥 = 𝑏를 풀어보자 𝐴𝑥 𝑝 = 𝑏 and 𝐴𝑥 𝑛 = 0 𝑨(𝒙 𝒑 + 𝒙 𝒏) = 𝒃 1 3 3 2 2 6 9 7 −1 −3 3 4 𝑢 𝑣 𝑤 𝑧 = 𝑏1 𝑏2 𝑏3 이니까 1 3 3 2 𝑏1 2 6 9 7 𝑏2 −1 −3 3 4 𝑏3 1 3 3 2 𝑏1 0 0 3 3 𝑏2 − 2𝑏1 0 0 6 6 𝑏3 + 𝑏1 1 3 3 2 𝑏1 0 0 3 3 𝑏2 − 2𝑏1 0 0 0 0 𝑏3 − 2𝑏2 + 5𝑏1 해가 존재하려면 𝒃 𝟑 − 𝟐𝒃 𝟐 + 𝟓𝒃 𝟏 = 𝟎 이면서 𝒃 𝝐 𝑪(𝑨) 이어야 한다.
7.
Ax=b의 해집합 구하기 (1)
Echelon Matrix U를 만든다 1 3 3 2 𝑏1 0 0 3 3 𝑏2 − 2𝑏1 0 0 0 0 𝑏3 − 2𝑏2 + 5𝑏1 (2) 마지막 행의 조건에 맞는 임의의 값을 정하고, U에 적용한 후, R로 변환한다. 𝑏3 − 2𝑏2 + 5𝑏1 = 0을 만족하도록 𝑏1 𝑏2 𝑏3 = 1 5 5 라고 정한 다음, 최종적으로 R 변환 1 3 3 2 1 0 0 3 3 3 0 0 0 0 0 1 3 3 2 1 0 0 1 1 1 0 0 0 0 0 1 3 0 −1 −2 0 0 1 1 1 0 0 0 0 0 (3) Pivot Variable을 Free Variable로 치환하여, special solution과 particular solution을 구한다. 𝑢 + 3𝑣 − 𝑧 = −2 𝑤 + 𝑧 = 1 𝑢 = −3𝑣 + 𝑧 − 2 𝑤 = −𝑧 + 1 𝑢 𝑣 𝑤 𝑧 = −3𝑣 + 𝑧 − 2 𝑣 −𝑧 + 1 𝑧 = 𝑣 −3 1 0 0 + 𝑧 1 0 −1 1 + −2 0 1 0 𝒙 𝒏 𝒙 𝒑 𝑁(𝐴)는 원점을 지나는 평면이었는데 𝑥 𝑝만큼 평행이동
Download now