SlideShare a Scribd company logo
1 of 7
Linear Algebra
6. 영벡터공간과 해집합
한양대 이상화 교수님 <선형대수>
http://www.kocw.net/home/search/kemView.do?kemId=977757
영벡터공간 (Null Space of A)
• 𝑨𝒙 = 𝟎 (𝒎 < 𝒏) 조건을 만족하는 𝑥의 해집합을 ‘영벡터공간’이라고 한다.
• The null space of a matrix 𝐴 consists of all vectors 𝑥 such that 𝐴𝑥 = 0.
• 𝑁 𝐴 = 𝑥 𝐴𝑥 = 0 }
• 해집합이 벡터공간의 조건을 만족하는가?
• 𝑨𝒙 = 𝟎 and 𝑨𝒙′ = 𝟎  𝑨(𝒙 + 𝒙′
) = 𝟎 : closed under addition
• 𝑨𝒙 = 𝟎  𝒄 𝑨𝒙 = 𝒄 × 𝟎 = 𝟎 : closed under scalar multiplication
•
1 0
5 4
2 4
𝑢
𝑣
=
0
0
0
 (0,0)일 때 성립
•
1 0 1
5 4 9
2 4 6
𝑢
𝑣
𝑤
=
0
0
0
 N(A)는 직선, c
1
1
−1
𝜖 𝑁(𝐴)
Solving 𝑨𝒙 = 𝟎 and 𝑨𝒙 = 𝒃
• 𝑨𝒙 = 𝟎에서 𝑨의 역행렬이 존재한다면, 𝑥 = 𝐴−1
× 0, 즉 𝑥 = 0만이 해집합(𝑁(𝐴))에 포함된다.
반대로 𝐶(𝐴)는 𝑨𝒙 = 𝒃에서 모든 𝒃 를 포함하는 Whole Space이다.
• When the null space contains more than the zero vector column, the column space
contains less than all vectors.
• 𝐴𝑥 𝑝 = 𝑏 and 𝐴𝑥 𝑛 = 0  𝑨(𝒙 𝒑 + 𝒙 𝒏) = 𝒃
•
1 1
2 2
𝑥
𝑦 =
𝑏1
𝑏2
• 𝑏2 ≠ 2𝑏1  해가 없음
• 𝑏2 = 2𝑏1  해가 무수히 많음
𝑥 𝑝 = 1, 1 
1 1
2 2
𝑥
𝑦 =
2
4
𝑥 𝑛 = −1, 1 or −𝑐, 𝑐
𝑥 𝑝 + 𝑥 𝑛 =
1
1
+ 𝑐
−1
1
=
1 − 𝑐
1 + 𝑐
All 𝑥 𝑛 Lines of all solutions : 𝒙 = 𝒙 𝒑 + 𝒙 𝒏
𝑥 𝑛과 𝑥 𝑝 중 한 값을 알면 𝑥 𝑝 전체를 알 수 있다.
• A의 역행렬이 존재하지 않을 때 N(A) 해집합을 구하는 정형화된 방식  가우스 소거법의 연장
𝐴𝑥 = 0 ⇒
1 3 3 2
2 6 9 7
−1 −3 3 4
𝑢
𝑣
𝑤
𝑧
=
0
0
0
1 3 3 2
2 6 9 7
−1 −3 3 4

1 3 3 2
0 0 3 3
0 0 6 6

1 3 3 2
0 0 3 3
0 0 0 0

1 3 3 2
0 0 1 1
0 0 0 0

1 3 0 −1
0 0 1 1
0 0 0 0
Echelon Form U and Row Reduced Form R
마지막 Pivot는 0이어야 함
(그렇지 않으면 z=0일 때만 해가 발생)
Echelon Matrix U
Pivot을 모두 1로
Pivot 윗 행을 모두 0으로 변환
Row Reduced Echelon Matrix R
* 𝐴𝑥 = 𝑏를 가우스 소거법으로 풀 때는
𝑏 값도 포함해서 같이 수정했지만,
𝐴𝑥 = 0의 경우에는 0 벡터에는 어떤 값을
곱해도 0이기 때문에 수정할 필요가 없이
행렬 𝐴만 𝑅형태로 변형하면 된다.
Ax=0의 해집합 구하기
• 𝑅𝑥 = 0을 활용하여 𝐴𝑥 = 0의 해를 구하자!
• Pivot Variable and Free Variable
𝑥 =
𝑢
𝑣
𝑤
𝑧
일 때, Row Reduced Matrix R =
1 3 0 −1
0 0 1 1
0 0 0 0
에서
Pivot이 있는 자리의 미지수 𝑢, 𝑤를 Pivot Variable, 그 외의 미지수 𝑣, 𝑧를 Free Variable이라고 한다.
𝑅𝑥 =
1 3 0 −1
0 0 1 1
0 0 0 0
𝑢
𝑣
𝑤
𝑧
=
𝑢 + 3𝑣 − 𝑧
𝑤 + 𝑧
= 0 
𝑢 = −3𝑣 + 𝑧
𝑤 = −𝑧

𝑢
𝑣
𝑤
𝑧
=
−3𝑣 + 𝑧
𝑣
−𝑧
𝑧
= 𝑣
−3
1
0
0
+ 𝑧
1
0
−1
1
Pivot Variable들을 Free Variable로 치환
Special solution
𝑵(𝑨)는 special solution의 Linear Combination!
Ax=b의 해집합 구하기
• 같은 방법으로 𝐴𝑥 = 𝑏를 풀어보자
𝐴𝑥 𝑝 = 𝑏 and 𝐴𝑥 𝑛 = 0  𝑨(𝒙 𝒑 + 𝒙 𝒏) = 𝒃
1 3 3 2
2 6 9 7
−1 −3 3 4
𝑢
𝑣
𝑤
𝑧
=
𝑏1
𝑏2
𝑏3
이니까
1 3 3 2 𝑏1
2 6 9 7 𝑏2
−1 −3 3 4 𝑏3

1 3 3 2 𝑏1
0 0 3 3 𝑏2 − 2𝑏1
0 0 6 6 𝑏3 + 𝑏1

1 3 3 2 𝑏1
0 0 3 3 𝑏2 − 2𝑏1
0 0 0 0 𝑏3 − 2𝑏2 + 5𝑏1
 해가 존재하려면 𝒃 𝟑 − 𝟐𝒃 𝟐 + 𝟓𝒃 𝟏 = 𝟎 이면서 𝒃 𝝐 𝑪(𝑨) 이어야 한다.
Ax=b의 해집합 구하기
(1) Echelon Matrix U를 만든다 
1 3 3 2 𝑏1
0 0 3 3 𝑏2 − 2𝑏1
0 0 0 0 𝑏3 − 2𝑏2 + 5𝑏1
(2) 마지막 행의 조건에 맞는 임의의 값을 정하고, U에 적용한 후, R로 변환한다.
 𝑏3 − 2𝑏2 + 5𝑏1 = 0을 만족하도록 𝑏1 𝑏2 𝑏3 = 1 5 5 라고 정한 다음, 최종적으로 R 변환
1 3 3 2 1
0 0 3 3 3
0 0 0 0 0

1 3 3 2 1
0 0 1 1 1
0 0 0 0 0

1 3 0 −1 −2
0 0 1 1 1
0 0 0 0 0
(3) Pivot Variable을 Free Variable로 치환하여, special solution과 particular solution을 구한다.
𝑢 + 3𝑣 − 𝑧 = −2
𝑤 + 𝑧 = 1

𝑢 = −3𝑣 + 𝑧 − 2
𝑤 = −𝑧 + 1

𝑢
𝑣
𝑤
𝑧
=
−3𝑣 + 𝑧 − 2
𝑣
−𝑧 + 1
𝑧
= 𝑣
−3
1
0
0
+ 𝑧
1
0
−1
1
+
−2
0
1
0
𝒙 𝒏 𝒙 𝒑
𝑁(𝐴)는 원점을 지나는 평면이었는데 𝑥 𝑝만큼 평행이동

More Related Content

What's hot

simpion's 3/8 rule
simpion's 3/8 rulesimpion's 3/8 rule
simpion's 3/8 rulesharma230399
 
Interpolation in Numerical Methods
Interpolation in Numerical Methods Interpolation in Numerical Methods
Interpolation in Numerical Methods Dr. Tushar J Bhatt
 
2.2 inverse of a matrix
2.2 inverse of a matrix2.2 inverse of a matrix
2.2 inverse of a matrixSelf-Employed
 
A FOCUS ON FIXED POINT THEOREM IN BANACH SPACE
A FOCUS ON FIXED POINT THEOREM IN BANACH SPACEA FOCUS ON FIXED POINT THEOREM IN BANACH SPACE
A FOCUS ON FIXED POINT THEOREM IN BANACH SPACEIJESM JOURNAL
 
interpolation
interpolationinterpolation
interpolation8laddu8
 
Cubic Spline Interpolation
Cubic Spline InterpolationCubic Spline Interpolation
Cubic Spline InterpolationVARUN KUMAR
 
Derivation of Simpson's 1/3 rule
Derivation of Simpson's 1/3 ruleDerivation of Simpson's 1/3 rule
Derivation of Simpson's 1/3 ruleHapPy SumOn
 
Newton raphson method
Newton raphson methodNewton raphson method
Newton raphson methodBijay Mishra
 
Cubic Equation
Cubic EquationCubic Equation
Cubic Equationreynosje
 
Variational Inference in Python
Variational Inference in PythonVariational Inference in Python
Variational Inference in PythonPeadar Coyle
 
NUMERICAL INTEGRATION : ERROR FORMULA, GAUSSIAN QUADRATURE FORMULA
NUMERICAL INTEGRATION : ERROR FORMULA, GAUSSIAN QUADRATURE FORMULANUMERICAL INTEGRATION : ERROR FORMULA, GAUSSIAN QUADRATURE FORMULA
NUMERICAL INTEGRATION : ERROR FORMULA, GAUSSIAN QUADRATURE FORMULAKHORASIYA DEVANSU
 
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...Joonhyung Lee
 
Numerical Methods
Numerical MethodsNumerical Methods
Numerical MethodsTeja Ande
 
Bayesian Neural Networks
Bayesian Neural NetworksBayesian Neural Networks
Bayesian Neural NetworksNatan Katz
 
Taylor's and Maclaurin series
Taylor's and Maclaurin seriesTaylor's and Maclaurin series
Taylor's and Maclaurin seriesHarsh Parmar
 

What's hot (20)

simpion's 3/8 rule
simpion's 3/8 rulesimpion's 3/8 rule
simpion's 3/8 rule
 
Interpolation in Numerical Methods
Interpolation in Numerical Methods Interpolation in Numerical Methods
Interpolation in Numerical Methods
 
2.2 inverse of a matrix
2.2 inverse of a matrix2.2 inverse of a matrix
2.2 inverse of a matrix
 
A FOCUS ON FIXED POINT THEOREM IN BANACH SPACE
A FOCUS ON FIXED POINT THEOREM IN BANACH SPACEA FOCUS ON FIXED POINT THEOREM IN BANACH SPACE
A FOCUS ON FIXED POINT THEOREM IN BANACH SPACE
 
interpolation
interpolationinterpolation
interpolation
 
Cubic Spline Interpolation
Cubic Spline InterpolationCubic Spline Interpolation
Cubic Spline Interpolation
 
Derivation of Simpson's 1/3 rule
Derivation of Simpson's 1/3 ruleDerivation of Simpson's 1/3 rule
Derivation of Simpson's 1/3 rule
 
Newton raphson method
Newton raphson methodNewton raphson method
Newton raphson method
 
Cubic Equation
Cubic EquationCubic Equation
Cubic Equation
 
Variational Inference in Python
Variational Inference in PythonVariational Inference in Python
Variational Inference in Python
 
NUMERICAL INTEGRATION : ERROR FORMULA, GAUSSIAN QUADRATURE FORMULA
NUMERICAL INTEGRATION : ERROR FORMULA, GAUSSIAN QUADRATURE FORMULANUMERICAL INTEGRATION : ERROR FORMULA, GAUSSIAN QUADRATURE FORMULA
NUMERICAL INTEGRATION : ERROR FORMULA, GAUSSIAN QUADRATURE FORMULA
 
Engineering Mathematics & Probability Distributions
Engineering Mathematics & Probability DistributionsEngineering Mathematics & Probability Distributions
Engineering Mathematics & Probability Distributions
 
Lesson 15 pappus theorem
Lesson 15 pappus theoremLesson 15 pappus theorem
Lesson 15 pappus theorem
 
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...
 
Integral Calculus
Integral CalculusIntegral Calculus
Integral Calculus
 
Feature Pyramid Network, FPN
Feature Pyramid Network, FPNFeature Pyramid Network, FPN
Feature Pyramid Network, FPN
 
Numerical Methods
Numerical MethodsNumerical Methods
Numerical Methods
 
Bayesian Neural Networks
Bayesian Neural NetworksBayesian Neural Networks
Bayesian Neural Networks
 
Taylor's and Maclaurin series
Taylor's and Maclaurin seriesTaylor's and Maclaurin series
Taylor's and Maclaurin series
 
Geometric Deep Learning
Geometric Deep Learning Geometric Deep Learning
Geometric Deep Learning
 

Similar to 선형대수 06. 영벡터공간과 해집합

선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영AHRA CHO
 
선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt OrthogonalizationAHRA CHO
 
Ray-triangle intersection
Ray-triangle intersectionRay-triangle intersection
Ray-triangle intersection동환 김
 
6장 그래프 알고리즘
6장 그래프 알고리즘6장 그래프 알고리즘
6장 그래프 알고리즘Vong Sik Kong
 
0131 1 spectral_theorem_transformation
0131 1 spectral_theorem_transformation0131 1 spectral_theorem_transformation
0131 1 spectral_theorem_transformationJeonghun Yoon
 
Linear algebra.pptx
Linear algebra.pptxLinear algebra.pptx
Linear algebra.pptxGeonWooYoo1
 
선형대수 11강 벡터 투영과 최소제곱법
선형대수 11강 벡터 투영과 최소제곱법선형대수 11강 벡터 투영과 최소제곱법
선형대수 11강 벡터 투영과 최소제곱법AHRA CHO
 
Eigendecomposition and pca
Eigendecomposition and pcaEigendecomposition and pca
Eigendecomposition and pcaJinhwan Suk
 
04. logistic regression ( 로지스틱 회귀 )
04. logistic regression ( 로지스틱 회귀 )04. logistic regression ( 로지스틱 회귀 )
04. logistic regression ( 로지스틱 회귀 )Jeonghun Yoon
 
Neural network (perceptron)
Neural network (perceptron)Neural network (perceptron)
Neural network (perceptron)Jeonghun Yoon
 
선형대수 07. 선형독립, 4가지 부벡터공간
선형대수 07. 선형독립, 4가지 부벡터공간선형대수 07. 선형독립, 4가지 부벡터공간
선형대수 07. 선형독립, 4가지 부벡터공간AHRA CHO
 
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미AHRA CHO
 
0124 1 linear_algebra_basic_vector
0124 1 linear_algebra_basic_vector0124 1 linear_algebra_basic_vector
0124 1 linear_algebra_basic_vectorJeonghun Yoon
 
08. spectal clustering
08. spectal clustering08. spectal clustering
08. spectal clusteringJeonghun Yoon
 
Auto-Encoders and Variational Auto-Encoders
Auto-Encoders and Variational Auto-EncodersAuto-Encoders and Variational Auto-Encoders
Auto-Encoders and Variational Auto-EncodersJinho Lee
 

Similar to 선형대수 06. 영벡터공간과 해집합 (20)

선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영
 
선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization
 
Ray-triangle intersection
Ray-triangle intersectionRay-triangle intersection
Ray-triangle intersection
 
행렬
행렬행렬
행렬
 
행렬
행렬행렬
행렬
 
6장 그래프 알고리즘
6장 그래프 알고리즘6장 그래프 알고리즘
6장 그래프 알고리즘
 
0131 1 spectral_theorem_transformation
0131 1 spectral_theorem_transformation0131 1 spectral_theorem_transformation
0131 1 spectral_theorem_transformation
 
Linear algebra.pptx
Linear algebra.pptxLinear algebra.pptx
Linear algebra.pptx
 
선형대수 11강 벡터 투영과 최소제곱법
선형대수 11강 벡터 투영과 최소제곱법선형대수 11강 벡터 투영과 최소제곱법
선형대수 11강 벡터 투영과 최소제곱법
 
Eigendecomposition and pca
Eigendecomposition and pcaEigendecomposition and pca
Eigendecomposition and pca
 
Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)
 
04. logistic regression ( 로지스틱 회귀 )
04. logistic regression ( 로지스틱 회귀 )04. logistic regression ( 로지스틱 회귀 )
04. logistic regression ( 로지스틱 회귀 )
 
벡터
벡터벡터
벡터
 
Neural network (perceptron)
Neural network (perceptron)Neural network (perceptron)
Neural network (perceptron)
 
06. graph mining
06. graph mining06. graph mining
06. graph mining
 
선형대수 07. 선형독립, 4가지 부벡터공간
선형대수 07. 선형독립, 4가지 부벡터공간선형대수 07. 선형독립, 4가지 부벡터공간
선형대수 07. 선형독립, 4가지 부벡터공간
 
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
 
0124 1 linear_algebra_basic_vector
0124 1 linear_algebra_basic_vector0124 1 linear_algebra_basic_vector
0124 1 linear_algebra_basic_vector
 
08. spectal clustering
08. spectal clustering08. spectal clustering
08. spectal clustering
 
Auto-Encoders and Variational Auto-Encoders
Auto-Encoders and Variational Auto-EncodersAuto-Encoders and Variational Auto-Encoders
Auto-Encoders and Variational Auto-Encoders
 

More from AHRA CHO

선형대수 03. LU Decomposition
선형대수 03. LU Decomposition선형대수 03. LU Decomposition
선형대수 03. LU DecompositionAHRA CHO
 
선형대수 02. 가우스 소거법
선형대수 02. 가우스 소거법선형대수 02. 가우스 소거법
선형대수 02. 가우스 소거법AHRA CHO
 
01_ML 기초_선형회귀_Linear Regression
01_ML 기초_선형회귀_Linear Regression01_ML 기초_선형회귀_Linear Regression
01_ML 기초_선형회귀_Linear RegressionAHRA CHO
 
00_ML 기초_기본개념
00_ML 기초_기본개념00_ML 기초_기본개념
00_ML 기초_기본개념AHRA CHO
 
[2012 2] 1주차 사회적경제 개요
[2012 2] 1주차 사회적경제 개요[2012 2] 1주차 사회적경제 개요
[2012 2] 1주차 사회적경제 개요AHRA CHO
 
[2012 2] 1주차 사회적경제의 역사
[2012 2] 1주차 사회적경제의 역사[2012 2] 1주차 사회적경제의 역사
[2012 2] 1주차 사회적경제의 역사AHRA CHO
 

More from AHRA CHO (6)

선형대수 03. LU Decomposition
선형대수 03. LU Decomposition선형대수 03. LU Decomposition
선형대수 03. LU Decomposition
 
선형대수 02. 가우스 소거법
선형대수 02. 가우스 소거법선형대수 02. 가우스 소거법
선형대수 02. 가우스 소거법
 
01_ML 기초_선형회귀_Linear Regression
01_ML 기초_선형회귀_Linear Regression01_ML 기초_선형회귀_Linear Regression
01_ML 기초_선형회귀_Linear Regression
 
00_ML 기초_기본개념
00_ML 기초_기본개념00_ML 기초_기본개념
00_ML 기초_기본개념
 
[2012 2] 1주차 사회적경제 개요
[2012 2] 1주차 사회적경제 개요[2012 2] 1주차 사회적경제 개요
[2012 2] 1주차 사회적경제 개요
 
[2012 2] 1주차 사회적경제의 역사
[2012 2] 1주차 사회적경제의 역사[2012 2] 1주차 사회적경제의 역사
[2012 2] 1주차 사회적경제의 역사
 

선형대수 06. 영벡터공간과 해집합

  • 1. Linear Algebra 6. 영벡터공간과 해집합 한양대 이상화 교수님 <선형대수> http://www.kocw.net/home/search/kemView.do?kemId=977757
  • 2. 영벡터공간 (Null Space of A) • 𝑨𝒙 = 𝟎 (𝒎 < 𝒏) 조건을 만족하는 𝑥의 해집합을 ‘영벡터공간’이라고 한다. • The null space of a matrix 𝐴 consists of all vectors 𝑥 such that 𝐴𝑥 = 0. • 𝑁 𝐴 = 𝑥 𝐴𝑥 = 0 } • 해집합이 벡터공간의 조건을 만족하는가? • 𝑨𝒙 = 𝟎 and 𝑨𝒙′ = 𝟎  𝑨(𝒙 + 𝒙′ ) = 𝟎 : closed under addition • 𝑨𝒙 = 𝟎  𝒄 𝑨𝒙 = 𝒄 × 𝟎 = 𝟎 : closed under scalar multiplication • 1 0 5 4 2 4 𝑢 𝑣 = 0 0 0  (0,0)일 때 성립 • 1 0 1 5 4 9 2 4 6 𝑢 𝑣 𝑤 = 0 0 0  N(A)는 직선, c 1 1 −1 𝜖 𝑁(𝐴)
  • 3. Solving 𝑨𝒙 = 𝟎 and 𝑨𝒙 = 𝒃 • 𝑨𝒙 = 𝟎에서 𝑨의 역행렬이 존재한다면, 𝑥 = 𝐴−1 × 0, 즉 𝑥 = 0만이 해집합(𝑁(𝐴))에 포함된다. 반대로 𝐶(𝐴)는 𝑨𝒙 = 𝒃에서 모든 𝒃 를 포함하는 Whole Space이다. • When the null space contains more than the zero vector column, the column space contains less than all vectors. • 𝐴𝑥 𝑝 = 𝑏 and 𝐴𝑥 𝑛 = 0  𝑨(𝒙 𝒑 + 𝒙 𝒏) = 𝒃 • 1 1 2 2 𝑥 𝑦 = 𝑏1 𝑏2 • 𝑏2 ≠ 2𝑏1  해가 없음 • 𝑏2 = 2𝑏1  해가 무수히 많음 𝑥 𝑝 = 1, 1  1 1 2 2 𝑥 𝑦 = 2 4 𝑥 𝑛 = −1, 1 or −𝑐, 𝑐 𝑥 𝑝 + 𝑥 𝑛 = 1 1 + 𝑐 −1 1 = 1 − 𝑐 1 + 𝑐 All 𝑥 𝑛 Lines of all solutions : 𝒙 = 𝒙 𝒑 + 𝒙 𝒏 𝑥 𝑛과 𝑥 𝑝 중 한 값을 알면 𝑥 𝑝 전체를 알 수 있다.
  • 4. • A의 역행렬이 존재하지 않을 때 N(A) 해집합을 구하는 정형화된 방식  가우스 소거법의 연장 𝐴𝑥 = 0 ⇒ 1 3 3 2 2 6 9 7 −1 −3 3 4 𝑢 𝑣 𝑤 𝑧 = 0 0 0 1 3 3 2 2 6 9 7 −1 −3 3 4  1 3 3 2 0 0 3 3 0 0 6 6  1 3 3 2 0 0 3 3 0 0 0 0  1 3 3 2 0 0 1 1 0 0 0 0  1 3 0 −1 0 0 1 1 0 0 0 0 Echelon Form U and Row Reduced Form R 마지막 Pivot는 0이어야 함 (그렇지 않으면 z=0일 때만 해가 발생) Echelon Matrix U Pivot을 모두 1로 Pivot 윗 행을 모두 0으로 변환 Row Reduced Echelon Matrix R * 𝐴𝑥 = 𝑏를 가우스 소거법으로 풀 때는 𝑏 값도 포함해서 같이 수정했지만, 𝐴𝑥 = 0의 경우에는 0 벡터에는 어떤 값을 곱해도 0이기 때문에 수정할 필요가 없이 행렬 𝐴만 𝑅형태로 변형하면 된다.
  • 5. Ax=0의 해집합 구하기 • 𝑅𝑥 = 0을 활용하여 𝐴𝑥 = 0의 해를 구하자! • Pivot Variable and Free Variable 𝑥 = 𝑢 𝑣 𝑤 𝑧 일 때, Row Reduced Matrix R = 1 3 0 −1 0 0 1 1 0 0 0 0 에서 Pivot이 있는 자리의 미지수 𝑢, 𝑤를 Pivot Variable, 그 외의 미지수 𝑣, 𝑧를 Free Variable이라고 한다. 𝑅𝑥 = 1 3 0 −1 0 0 1 1 0 0 0 0 𝑢 𝑣 𝑤 𝑧 = 𝑢 + 3𝑣 − 𝑧 𝑤 + 𝑧 = 0  𝑢 = −3𝑣 + 𝑧 𝑤 = −𝑧  𝑢 𝑣 𝑤 𝑧 = −3𝑣 + 𝑧 𝑣 −𝑧 𝑧 = 𝑣 −3 1 0 0 + 𝑧 1 0 −1 1 Pivot Variable들을 Free Variable로 치환 Special solution 𝑵(𝑨)는 special solution의 Linear Combination!
  • 6. Ax=b의 해집합 구하기 • 같은 방법으로 𝐴𝑥 = 𝑏를 풀어보자 𝐴𝑥 𝑝 = 𝑏 and 𝐴𝑥 𝑛 = 0  𝑨(𝒙 𝒑 + 𝒙 𝒏) = 𝒃 1 3 3 2 2 6 9 7 −1 −3 3 4 𝑢 𝑣 𝑤 𝑧 = 𝑏1 𝑏2 𝑏3 이니까 1 3 3 2 𝑏1 2 6 9 7 𝑏2 −1 −3 3 4 𝑏3  1 3 3 2 𝑏1 0 0 3 3 𝑏2 − 2𝑏1 0 0 6 6 𝑏3 + 𝑏1  1 3 3 2 𝑏1 0 0 3 3 𝑏2 − 2𝑏1 0 0 0 0 𝑏3 − 2𝑏2 + 5𝑏1  해가 존재하려면 𝒃 𝟑 − 𝟐𝒃 𝟐 + 𝟓𝒃 𝟏 = 𝟎 이면서 𝒃 𝝐 𝑪(𝑨) 이어야 한다.
  • 7. Ax=b의 해집합 구하기 (1) Echelon Matrix U를 만든다  1 3 3 2 𝑏1 0 0 3 3 𝑏2 − 2𝑏1 0 0 0 0 𝑏3 − 2𝑏2 + 5𝑏1 (2) 마지막 행의 조건에 맞는 임의의 값을 정하고, U에 적용한 후, R로 변환한다.  𝑏3 − 2𝑏2 + 5𝑏1 = 0을 만족하도록 𝑏1 𝑏2 𝑏3 = 1 5 5 라고 정한 다음, 최종적으로 R 변환 1 3 3 2 1 0 0 3 3 3 0 0 0 0 0  1 3 3 2 1 0 0 1 1 1 0 0 0 0 0  1 3 0 −1 −2 0 0 1 1 1 0 0 0 0 0 (3) Pivot Variable을 Free Variable로 치환하여, special solution과 particular solution을 구한다. 𝑢 + 3𝑣 − 𝑧 = −2 𝑤 + 𝑧 = 1  𝑢 = −3𝑣 + 𝑧 − 2 𝑤 = −𝑧 + 1  𝑢 𝑣 𝑤 𝑧 = −3𝑣 + 𝑧 − 2 𝑣 −𝑧 + 1 𝑧 = 𝑣 −3 1 0 0 + 𝑧 1 0 −1 1 + −2 0 1 0 𝒙 𝒏 𝒙 𝒑 𝑁(𝐴)는 원점을 지나는 평면이었는데 𝑥 𝑝만큼 평행이동