SlideShare a Scribd company logo
1 of 7
Linear Algebra
7. 선형독립 (Linear Independence)
8. 벡터공간의 차원과 4가지 부벡터공간
한양대 이상화 교수님 <선형대수>
http://www.kocw.net/home/search/kemView.do?kemId=977757
Linear Independence
• 𝑐1 𝑣1 + 𝑐2 𝑣2 + ⋯ + 𝑐 𝑛 𝑣 𝑛 = 0 식이 𝑐1 = 𝑐2 = ⋯ = 𝑐 𝑛 = 0 일 때만 만족할 때,
𝑣1, 𝑣2, ⋯ , 𝑣 𝑛 벡터들은 선형독립이다.  𝑣 𝑘가 다른 벡터들의 조합으로는 표현 불가
• 𝑐1
1
0
0
+ 𝑐2
0
1
0
+ 𝑐3
0
0
1
=
0
0
0
→ 𝑐1 = 𝑐2 = 𝑐3 = 0
• 𝐴 =
3 4 2
0 1 5
0 0 2
 𝑐1
3
0
0
+ 𝑐2
4
1
0
+ 𝑐3
2
5
2
=
0
0
0
→ 𝑐1 = 𝑐2 = 𝑐3 = 0
• 가우스 소거법의 결과로 𝑚개의 pivot이 생긴 경우, 행렬 𝐴에 𝑚개의 독립적인 열벡터가 있는 것.
 If Gaussian Elimination of A generates m non-zero rows, it means m independent column vectors in A.
• Rank of 𝑨
= # of independent column vectors of 𝐴
= # of independent row vectors of 𝐴
= # of pivots of 𝐴
= Dimension of 𝐶(𝐴)  평소 생각하던 차원이 아니다!
• Dimension
1
0
0
,
0
1
0
 z는 항상 0이기 때문에, 두 벡터로 표현되는 공간은 x-y 평면
크기 3의 벡터이지만, 실제는 2차원 평면 (Dimension은 2)
Rank of A
• Spanning : 𝑣1, 𝑣2, ⋯ , 𝑣 𝑛이 구성하는 벡터공간
1
1
0
0
,
0
1
0
(2)
1
0
0
,
1
1
0
(3)
1
0
0
,
0
1
0
,
1
1
0
𝑥𝑦 평면을 span하는 벡터 조합은
다양하다 (1, 2, 3번 모두 Dim = 2).
 벡터들이 선형독립이라면
Linear combination은 유일하다.
선형독립
선형독립 X
𝑐1 = 𝑐2 = 2, 𝑐3 = 0
𝑐1 = 𝑐2 = 0, 𝑐3 = 2
모두
2
2
0
• Basis Vector
= Minimal # of vectors to span the vector space
= Maximum # of linearly independent vectors
• Linear combination is unique from basis.
 Basis는 서로 선형독립이기 때문에 선형조합이 Unique하다.
• Basis Vector is not unique for a vector space.
 앞서 같은 공간을 Span하는 조합이 여러 가지일 수 있었던 것처럼, Vector Space를 구성하는
기저벡터도 여러 가지일 수 있다 (Vector Space가 𝑥𝑦평면이라고 가정해보면 쉽게 이해할 수 있다).
 단, Basis끼리 수직을 이룬다면 Linear Combination을 쉽게 찾을 수 있다 (
1
0
0
,
0
1
0
경우처럼).
Basis Vector (기저벡터)
• 동일한 Vector Space에도 무한히 많은 Basis들이 있다 (Basis의 조합은 무한하다).
• 하지만, Basis의 개수는 Vector Space 내에 동일하다.
 Basis의 개수 = Dimension
• Any linear independent set in V can be extended to a basis by adding more vectors.
𝒙𝒚𝒛 3차원 공간이 벡터공간일 때,
1
0
0
,
0
1
0
두 선형 독립 벡터 조합에,
0
0
1
를 더하면 Basis가 된다.
• Any spanning set in V can be reduced to a basis, by discarding vectors if necessary.
1
0
0
,
0
1
0
,
0
0
1
,
1
1
1
은 3차원 공간을 span하지만, 선형독립 관계에 필수적이지 않은
1
1
1
를 없애면 Basis가 된다.
Dimension of a Vector Space
• 행렬 A에는 4가지 부벡터공간이 있다.
• Column Space 𝑪(𝑨) : 𝐷𝑖𝑚(𝐶(𝐴)) = 𝑟
• Null Space 𝑵(𝑨) : 𝐷𝑖𝑚(𝑁(𝐴)) = 𝑛 − 𝑟
• Row Space 𝑪(𝑨 𝑻
) : 𝐷𝑖𝑚 𝐶 𝐴 𝑇
= 𝑟
• Left Null Space 𝑵 𝑨 𝑻
𝐴 𝑇
𝑦 = 0 : 𝐷𝑖𝑚 𝑁 𝐴 𝑇
= 𝑚 − 𝑟
• 𝑵(𝑨)와 𝑪(𝑨 𝑻
)는 𝑹 𝒏
의 Subspace
 𝑁(𝐴)와 𝐶(𝐴 𝑇
)는 서로 수직
• 𝑪 𝑨 와 𝑵 𝑨 𝑻
는 𝑹 𝒎
의 Subspace
 𝐶 𝐴 와 𝑁(𝐴 𝑇
)는 서로 수직
4가지 부벡터공간
𝑨 = 𝑼 = 𝑹 =
𝟏 𝟎 𝟎
𝟎 𝟎 𝟎
일 때,
𝑪 𝑨 = 𝑐
1
0
, line in 𝑅2
(𝑥𝑦평면의 𝑥축)
𝑪 𝑨 𝑻
= 𝒄
1
0
0
, line in 𝑅3
𝑵 𝑨 = 𝒄 𝟏
0
1
0
+ 𝒄 𝟐
0
0
1
, 𝑦𝑧 평면
𝑵 𝑨 𝑻
= 𝒄
0
1
, line in 𝑅2
𝐷𝑖𝑚 𝐶 𝐴 = 1
𝐷𝑖𝑚 𝐶 𝐴 𝑇 = 1
𝐷𝑖𝑚 𝑁 𝐴 = 2
𝐷𝑖𝑚 𝑁 𝐴 𝑇 = 1𝑫𝒊𝒎 𝑪 𝑨 + 𝑫𝒊𝒎 𝑵 𝑨 𝑻
= 𝒎
𝑫𝒊𝒎 𝑪 𝑨 𝑻
+ 𝑫𝒊𝒎 𝑵 𝑨 = 𝒏
Existence of Inverses
• An inverse exists only when the rank is as large as possible.
- Left Inverse : 𝐴−1 𝐴 = 𝐼 → 𝑟 = 𝑛 𝑚 ≥ 𝑛
- Right Inverse : 𝐴𝐴−1
= 𝐼 → 𝑟 = 𝑚 𝑚 ≤ 𝑛
- Two-sided Inverse :𝐴−1
𝐴 = 𝐴𝐴−1
= 𝐼 → 𝑟 = 𝑚 = 𝑛 (정사각행렬)
𝑨𝑨−𝟏 𝑨 𝑨−𝟏 𝑨−𝟏 𝑨
Left Inverse
(해가 1개)
Right Inverse
(해가 무수히 많음)
Two-sided Inverse
(해가 하나)
G.E. 이후 Upper Triangular Matrix U 형태가 깔끔하게 나와야
𝒏
𝒎

More Related Content

What's hot

선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합AHRA CHO
 
선형대수 03. LU Decomposition
선형대수 03. LU Decomposition선형대수 03. LU Decomposition
선형대수 03. LU DecompositionAHRA CHO
 
Taocp11.2.2
Taocp11.2.2Taocp11.2.2
Taocp11.2.2duaa83
 
[프선대]Chap02 랭크 역행렬-일차방정식
[프선대]Chap02 랭크 역행렬-일차방정식[프선대]Chap02 랭크 역행렬-일차방정식
[프선대]Chap02 랭크 역행렬-일차방정식종현 최
 

What's hot (7)

선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합
 
선형대수 03. LU Decomposition
선형대수 03. LU Decomposition선형대수 03. LU Decomposition
선형대수 03. LU Decomposition
 
행렬
행렬행렬
행렬
 
벡터
벡터벡터
벡터
 
행렬
행렬행렬
행렬
 
Taocp11.2.2
Taocp11.2.2Taocp11.2.2
Taocp11.2.2
 
[프선대]Chap02 랭크 역행렬-일차방정식
[프선대]Chap02 랭크 역행렬-일차방정식[프선대]Chap02 랭크 역행렬-일차방정식
[프선대]Chap02 랭크 역행렬-일차방정식
 

선형대수 07. 선형독립, 4가지 부벡터공간

  • 1. Linear Algebra 7. 선형독립 (Linear Independence) 8. 벡터공간의 차원과 4가지 부벡터공간 한양대 이상화 교수님 <선형대수> http://www.kocw.net/home/search/kemView.do?kemId=977757
  • 2. Linear Independence • 𝑐1 𝑣1 + 𝑐2 𝑣2 + ⋯ + 𝑐 𝑛 𝑣 𝑛 = 0 식이 𝑐1 = 𝑐2 = ⋯ = 𝑐 𝑛 = 0 일 때만 만족할 때, 𝑣1, 𝑣2, ⋯ , 𝑣 𝑛 벡터들은 선형독립이다.  𝑣 𝑘가 다른 벡터들의 조합으로는 표현 불가 • 𝑐1 1 0 0 + 𝑐2 0 1 0 + 𝑐3 0 0 1 = 0 0 0 → 𝑐1 = 𝑐2 = 𝑐3 = 0 • 𝐴 = 3 4 2 0 1 5 0 0 2  𝑐1 3 0 0 + 𝑐2 4 1 0 + 𝑐3 2 5 2 = 0 0 0 → 𝑐1 = 𝑐2 = 𝑐3 = 0 • 가우스 소거법의 결과로 𝑚개의 pivot이 생긴 경우, 행렬 𝐴에 𝑚개의 독립적인 열벡터가 있는 것.  If Gaussian Elimination of A generates m non-zero rows, it means m independent column vectors in A.
  • 3. • Rank of 𝑨 = # of independent column vectors of 𝐴 = # of independent row vectors of 𝐴 = # of pivots of 𝐴 = Dimension of 𝐶(𝐴)  평소 생각하던 차원이 아니다! • Dimension 1 0 0 , 0 1 0  z는 항상 0이기 때문에, 두 벡터로 표현되는 공간은 x-y 평면 크기 3의 벡터이지만, 실제는 2차원 평면 (Dimension은 2) Rank of A • Spanning : 𝑣1, 𝑣2, ⋯ , 𝑣 𝑛이 구성하는 벡터공간 1 1 0 0 , 0 1 0 (2) 1 0 0 , 1 1 0 (3) 1 0 0 , 0 1 0 , 1 1 0 𝑥𝑦 평면을 span하는 벡터 조합은 다양하다 (1, 2, 3번 모두 Dim = 2).  벡터들이 선형독립이라면 Linear combination은 유일하다. 선형독립 선형독립 X 𝑐1 = 𝑐2 = 2, 𝑐3 = 0 𝑐1 = 𝑐2 = 0, 𝑐3 = 2 모두 2 2 0
  • 4. • Basis Vector = Minimal # of vectors to span the vector space = Maximum # of linearly independent vectors • Linear combination is unique from basis.  Basis는 서로 선형독립이기 때문에 선형조합이 Unique하다. • Basis Vector is not unique for a vector space.  앞서 같은 공간을 Span하는 조합이 여러 가지일 수 있었던 것처럼, Vector Space를 구성하는 기저벡터도 여러 가지일 수 있다 (Vector Space가 𝑥𝑦평면이라고 가정해보면 쉽게 이해할 수 있다).  단, Basis끼리 수직을 이룬다면 Linear Combination을 쉽게 찾을 수 있다 ( 1 0 0 , 0 1 0 경우처럼). Basis Vector (기저벡터)
  • 5. • 동일한 Vector Space에도 무한히 많은 Basis들이 있다 (Basis의 조합은 무한하다). • 하지만, Basis의 개수는 Vector Space 내에 동일하다.  Basis의 개수 = Dimension • Any linear independent set in V can be extended to a basis by adding more vectors. 𝒙𝒚𝒛 3차원 공간이 벡터공간일 때, 1 0 0 , 0 1 0 두 선형 독립 벡터 조합에, 0 0 1 를 더하면 Basis가 된다. • Any spanning set in V can be reduced to a basis, by discarding vectors if necessary. 1 0 0 , 0 1 0 , 0 0 1 , 1 1 1 은 3차원 공간을 span하지만, 선형독립 관계에 필수적이지 않은 1 1 1 를 없애면 Basis가 된다. Dimension of a Vector Space
  • 6. • 행렬 A에는 4가지 부벡터공간이 있다. • Column Space 𝑪(𝑨) : 𝐷𝑖𝑚(𝐶(𝐴)) = 𝑟 • Null Space 𝑵(𝑨) : 𝐷𝑖𝑚(𝑁(𝐴)) = 𝑛 − 𝑟 • Row Space 𝑪(𝑨 𝑻 ) : 𝐷𝑖𝑚 𝐶 𝐴 𝑇 = 𝑟 • Left Null Space 𝑵 𝑨 𝑻 𝐴 𝑇 𝑦 = 0 : 𝐷𝑖𝑚 𝑁 𝐴 𝑇 = 𝑚 − 𝑟 • 𝑵(𝑨)와 𝑪(𝑨 𝑻 )는 𝑹 𝒏 의 Subspace  𝑁(𝐴)와 𝐶(𝐴 𝑇 )는 서로 수직 • 𝑪 𝑨 와 𝑵 𝑨 𝑻 는 𝑹 𝒎 의 Subspace  𝐶 𝐴 와 𝑁(𝐴 𝑇 )는 서로 수직 4가지 부벡터공간 𝑨 = 𝑼 = 𝑹 = 𝟏 𝟎 𝟎 𝟎 𝟎 𝟎 일 때, 𝑪 𝑨 = 𝑐 1 0 , line in 𝑅2 (𝑥𝑦평면의 𝑥축) 𝑪 𝑨 𝑻 = 𝒄 1 0 0 , line in 𝑅3 𝑵 𝑨 = 𝒄 𝟏 0 1 0 + 𝒄 𝟐 0 0 1 , 𝑦𝑧 평면 𝑵 𝑨 𝑻 = 𝒄 0 1 , line in 𝑅2 𝐷𝑖𝑚 𝐶 𝐴 = 1 𝐷𝑖𝑚 𝐶 𝐴 𝑇 = 1 𝐷𝑖𝑚 𝑁 𝐴 = 2 𝐷𝑖𝑚 𝑁 𝐴 𝑇 = 1𝑫𝒊𝒎 𝑪 𝑨 + 𝑫𝒊𝒎 𝑵 𝑨 𝑻 = 𝒎 𝑫𝒊𝒎 𝑪 𝑨 𝑻 + 𝑫𝒊𝒎 𝑵 𝑨 = 𝒏
  • 7. Existence of Inverses • An inverse exists only when the rank is as large as possible. - Left Inverse : 𝐴−1 𝐴 = 𝐼 → 𝑟 = 𝑛 𝑚 ≥ 𝑛 - Right Inverse : 𝐴𝐴−1 = 𝐼 → 𝑟 = 𝑚 𝑚 ≤ 𝑛 - Two-sided Inverse :𝐴−1 𝐴 = 𝐴𝐴−1 = 𝐼 → 𝑟 = 𝑚 = 𝑛 (정사각행렬) 𝑨𝑨−𝟏 𝑨 𝑨−𝟏 𝑨−𝟏 𝑨 Left Inverse (해가 1개) Right Inverse (해가 무수히 많음) Two-sided Inverse (해가 하나) G.E. 이후 Upper Triangular Matrix U 형태가 깔끔하게 나와야 𝒏 𝒎