선형대수 개념 정리
선형대수 개념 정리
Vector
- 벡터란?
- 벡터 공간 V의 원소 (엄밀한 정의)
- 1-D array of numbers (in Computer Science)
- 이후 모든 정의는 Computer Science의 방식을 따름
- # of elements in a vector = size(dimension, length) of a vector
- 스칼라
Matrices
- 2-D array of numbers
- A∈Rm×n
Tensor
- 다차원 배열의 일반화된 개념
- 텐서의 차원 (rank)
- 스칼라: 0차 텐서
- 벡터: 1차 텐서
- 행렬: 2차 텐서
- 3차원 이상의 텐서
- 텐서의 표기법
- T∈Rn1×n2×⋯×nk
- 예시:
- RGB 이미지 텐서
- 3차원 텐서로 표현
- 크기: height×width×3
- 각 채널 (R, G, B)은 2차원 행렬
- 예시: I=((r11r12⋯r1wr21r22⋯r2w⋮⋮⋱⋮rh1rh2⋯rhw)(g11g12⋯g1wg21g22⋯g2w⋮⋮⋱⋮gh1gh2⋯ghw)(b11b12⋯b1wb21b22⋯b2w⋮⋮⋱⋮bh1bh2⋯bhw))
- 영상 텐서
- 비디오 데이터는 4차원 텐서로 표현
- 크기: frames×height×width×channels
- 각 프레임은 3차원 텐서 (RGB 이미지)
- 예시: V=(I1I2⋮If)
- 비디오 데이터는 4차원 텐서로 표현
- RGB 이미지 텐서
Identity Matrix
- 대각 원소가 모두 1이고 나머지는 0인 행렬
- 항등 행렬 I∈Rn×n
- 항등 행렬의 성질
- AIn=A (∀A∈Rm×n)
- ImA=A (∀A∈Rm×n)
- IT=I
- I−1=I
Diagonal Matrix
- 대각 원소 외의 모든 원소가 0인 행렬
- 대각 행렬 D∈Rn×n
- 대각 행렬의 성질
- DT=D
- D−1는 존재할 경우 대각 행렬
- D1D2=D2D1 (대각 행렬 간의 곱셈은 교환 법칙이 성립)
- Also denoted: D=diag(d11,d22,…,dnn)
Matrix-Matrix multiplication
- 두 행렬 A∈Rm×n, B∈Rn×p의 곱 C∈Rm×p는 다음과 같이 정의됨
- 각 원소 cij는 다음과 같이 계산됨
- 행렬 곱셈의 성질
- 결합 법칙: A(BC)=(AB)C
- 분배 법칙: A(B+C)=AB+AC
- 일반적으로 교환 법칙은 성립하지 않음: AB≠BA
- 예시:
- A∈R2×3, B∈R3×2인 경우
Vector-Vector Product
- 내적 (Dot Product)
- 두 벡터 →a,→b∈Rn의 내적은 다음과 같이 정의됨 →a⋅→b=∑ni=1aibi
- 예시: →a=(123),→b=(456) →a⋅→b=1⋅4+2⋅5+3⋅6=32
- 외적 (Cross Product)
- 두 벡터 →a,→b∈R3의 외적은 다음과 같이 정의됨 →a×→b=(a2b3−a3b2a3b1−a1b3a1b2−a2b1)
- 예시: →a=(123),→b=(456) →a×→b=(2⋅6−3⋅53⋅4−1⋅61⋅5−2⋅4)=(−36−3)
Representing 2D lines via Vector-Vector Product
y=ax+b→{(x,y)|ax+by+c=0}→(a,b,c)(xy1)=0Matrix-Vector Product
- A∈Rm×n 의 행을 중심으로 볼 때:
- A의 각 행을 →aTi로 나타낼 수 있음 A=(→aT1→aT2⋮→aTm)
- A→x는 각 →aTi와 →x의 내적을 포함하는 벡터 A→x=(→aT1→x→aT2→x⋮→aTm→x)
- A∈Rm×n 의 열을 중심으로 볼 때:
- A의 각 열을 →aj로 나타낼 수 있음 A=(→a1→a2⋯→an)
- A→x는 각 →aj와 xj의 선형결합(linear combination)으로 나타낼 수 있음 A→x=x1→a1+x2→a2+⋯+xn→an
Hadamard Product (Element-wise Product)
- 두 행렬 A∈Rm×n, B∈Rm×n의 Hadamard 곱 C∈Rm×n는 다음과 같이 정의됨
- 각 원소 cij는 다음과 같이 계산됨
- 예시:
- A∈R2×3, B∈R2×3인 경우
Transpose
- 행렬 A∈Rm×n의 전치는 AT∈Rn×m로 나타내며, A의 행과 열을 뒤바꾼 행렬임
- 전치 행렬의 성질
- (AT)T=A
- (A+B)T=AT+BT
- (cA)T=cAT (∀c∈R)
- (AB)T=BTAT
- 예시:
- A∈R2×3인 경우
Trace
- 행렬 A∈Rn×n의 대각 원소의 합
- trace tr(A)는 다음과 같이 정의됨
- 성질
- tr(A+B)=tr(A)+tr(B)
- tr(cA)=c⋅tr(A) (∀c∈R)
- tr(AT)=tr(A)
- tr(AB)=tr(BA)
- 예시:
- A∈R3×3인 경우
Norms
Vector Norms
- 벡터 →x∈Rn의 norm은 벡터의 크기를 측정하는 방법
- p-norm (Lp norm)
- p≥1인 경우, p-norm은 다음과 같이 정의됨 ‖
- 특수한 경우:
- p = 1: 맨하탄 norm (Manhattan norm) \|\vec{x}\|_1 = \sum_{i=1}^{n} |x_i|
- p = 2: 유클리드 norm (Euclidean norm) \|\vec{x}\|_2 = \left( \sum_{i=1}^{n} x_i^2 \right)^{\frac{1}{2}}
- p \rightarrow \infty: 최대 norm (Maximum norm) \|\vec{x}\|_\infty = \max_{i} |x_i|
- p \rightarrow \infty 일때 가장 큰 성분이 norm을 결정
- p = 0: 제로 norm (Zero norm) \|\vec{x}\|_0 = \lim_{p \to 0} \left( \sum_{i=1}^{n} |x_i|^p \right)^{\frac{1}{p}} = \# \{i \mid x_i \neq 0\}
- 제로 norm은 엄밀히 말해 norm이 아니며(homogeneity 만족하지 못함), 벡터에서 0이 아닌 원소의 개수를 측정함
※ homogeneity: |\alpha\vec{x}|\ = |\alpha||\vec{x}|
- 제로 norm은 엄밀히 말해 norm이 아니며(homogeneity 만족하지 못함), 벡터에서 0이 아닌 원소의 개수를 측정함
Matrix Norms
- 행렬 A \in \mathbb{R}^{m \times n}의 norm은 행렬의 크기를 측정하는 방법
- 프로베니우스 norm (Frobenius norm)
- 프로베니우스 norm은 행렬의 각 원소의 제곱합의 제곱근으로 정의됨 \|A\|_F = \left( \sum_{i=1}^{m} \sum_{j=1}^{n} |a_{ij}|^2 \right)^{\frac{1}{2}}
Linearly Dependent and Independent
- 벡터 집합 {\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k}가 주어졌을 때, 이 벡터들이 선형 독립인지 종속인지를 판단할 수 있음
- 선형 독립 (Linearly Independent)
- 벡터 집합 {\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k}가 선형 독립이라는 것은, 이 벡터들 사이에 자명하지 않은 선형 결합이 존재하지 않음을 의미
- 즉, c_1\vec{v}_1 + c_2\vec{v}_2 + \cdots + c_k\vec{v}_k = \vec{0} 일 때, c_1 = c_2 = \cdots = c_k = 0 이어야 함
- 선형 종속 (Linearly Dependent)
- 벡터 집합 {\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k}가 선형 종속이라는 것은, 이 벡터들 사이에 자명하지 않은 선형 결합이 존재함을 의미
- 즉, c_1\vec{v}_1 + c_2\vec{v}_2 + \cdots + c_k\vec{v}_k = \vec{0} 일 때, 적어도 하나의 c_i \neq 0 인 경우가 존재함
- 예시:
- \vec{v}_1 = \begin{pmatrix} 1 \ 2 \ 3 \end{pmatrix}, \vec{v}_2 = \begin{pmatrix} 4 \ 5 \ 6 \end{pmatrix}, \vec{v}_3 = \begin{pmatrix} 7 \ 8 \ 9 \end{pmatrix}인 경우
- \vec{v}_1, \vec{v}_2, \vec{v}_3는 선형 종속임
- -3\vec{v}_1 + 3\vec{v}_2 - \vec{v}_3 = \vec{0} 이기 때문
Rank of A Matrix
- 행렬 A \in \mathbb{R}^{m \times n}의 rank는 행렬의 선형 독립인 행 또는 열 벡터의 최대 개수
- rank r(A)는 다음과 같이 정의됨
- r(A) = \text{dim}(\text{col space of } A) = \text{dim}(\text{row space of } A)
- 성질
- r(A) \leq \min(m, n)
- r(A) = r(A^T)
- r(AB) \leq \min(r(A), r(B))
- r(A+B) \leq r(A)+r(B)
- 예시:
- A \in \mathbb{R}^{3 \times 3}인 경우
Inverse of A Square Matrix
- 역행렬 (Inverse Matrix)
- 정사각 행렬 A \in \mathbb{R}^{n \times n}의 역행렬 A^{-1}은 AA^{-1} = A^{-1}A = I를 만족하는 행렬
- 역행렬이 존재하려면 A는 가역적 (invertible)이어야 함
- 역행렬의 성질
- (A^{-1})^{-1} = A
- (AB)^{-1} = B^{-1}A^{-1}
- (A^T)^{-1} = (A^{-1})^T
Span and Projection
Span
- 벡터 집합 {\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k}의 span은 이 벡터들의 선형 결합으로 표현될 수 있는 모든 벡터의 집합
- span \text{span}({\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k})는 다음과 같이 정의됨 \text{span}(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k\}) = \{c_1\vec{v}_1 + c_2\vec{v}_2 + \cdots + c_k\vec{v}_k \mid c_1, c_2, \ldots, c_k \in \mathbb{R}\}
- 예시:
- \vec{v}_1 = \begin{pmatrix} 1 \ 0 \ 0 \end{pmatrix}, \vec{v}_2 = \begin{pmatrix} 0 \ 1 \ 0 \end{pmatrix}인 경우
- \text{span}({\vec{v}_1, \vec{v}_2})는 \mathbb{R}^2의 모든 벡터를 포함
Projection
\vec{y} \in \mathbb{R}^m를 \text{span}({x_1, x_2, \ldots, x_n})에 Projection한 결과는 다음과 같은 문제로 정의될 수 있음
\arg \min_{\hat{y} \in \text{span}(\{x_1, x_2, \ldots, x_n\})} \|\vec{y} - \hat{y}\|_2- \vec{y}를 \text{span}({x_1, x_2, \ldots, x_n})에 정사영한 결과는 \hat{y}로 나타낼 수 있음 \hat{y} = X(X^TX)^{-1}X^T\vec{y}
- 여기서 X는 {x_1, x_2, \ldots, x_n}를 열 벡터로 가지는 행렬 X = \begin{pmatrix} | & | & & | \\ x_1 & x_2 & \cdots & x_n \\ | & | & & | \end{pmatrix}
- 예시:
- \vec{y} = \begin{pmatrix} 1 \ 2 \ 3 \end{pmatrix}, x_1 = \begin{pmatrix} 1 \ 0 \ 0 \end{pmatrix}, x_2 = \begin{pmatrix} 0 \ 1 \ 0 \end{pmatrix}인 경우
- \vec{y}를 \text{span}({x_1, x_2})에 정사영한 결과는 \hat{y} = \begin{pmatrix} 1 \ 2 \ 0 \end{pmatrix}
Basis and Dimension
- Basis
- 벡터 공간 V의 기저 (basis)는 V의 모든 벡터를 선형 결합으로 표현할 수 있는 선형 독립 벡터들의 집합
- 기저 {\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n}는 다음과 같은 성질을 가짐
- \text{span}({\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n}) = V
- {\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n}는 선형 독립
- 예시:
- \mathbb{R}^3의 표준 기저는 {\begin{pmatrix} 1 \ 0 \ 0 \end{pmatrix}, \begin{pmatrix} 0 \ 1 \ 0 \end{pmatrix}, \begin{pmatrix} 0 \ 0 \ 1 \end{pmatrix}}
- Dimension
- 벡터 공간 V의 차원 (dimension)은 V의 기저를 이루는 벡터의 개수
- \text{dim}(V)로 나타내며, V의 모든 기저는 동일한 개수의 벡터를 가짐
Orthogonal Matrices
Orthogonal and Orthonormal Vectors
- Orthogonal Vectors
- 두 벡터 \vec{u}, \vec{v} \in \mathbb{R}^n가 직교한다는 것은, 이 두 벡터의 내적이 0임을 의미 \vec{u} \cdot \vec{v} = 0
- Orthonormal Vectors
- 두 벡터 \vec{u}, \vec{v} \in \mathbb{R}^n가 정규 직교한다는 것은, 이 두 벡터가 직교하고, 각각의 벡터의 norm이 1임을 의미 \|\vec{u}\| = 1, \quad \|\vec{v}\| = 1, \quad \vec{u} \cdot \vec{v} = 0
- 예시: \vec{u} = \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}, \quad \vec{v} = \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}
Orthogonal Matrix
- Orthogonal Matrix
- 행렬 Q \in \mathbb{R}^{n \times n}가 직교 행렬이라는 것은, Q의 열 벡터들이 서로 직교하고, 각 열 벡터의 norm이 1임을 의미
- 즉, Q의 열 벡터들이 정규 직교 벡터들로 이루어져 있음
- 직교 행렬의 성질
- Q^T Q = QQ^T = I
- Q^{-1} = Q^T
- Q의 열 벡터와 행 벡터는 모두 정규 직교 벡터들로 이루어져 있음
Rotation Matrix
- 회전 행렬은 벡터를 원점 기준으로 회전시키는 변환을 나타내는 행렬
- 2차원 회전 행렬 R(\theta) \in \mathbb{R}^{2 \times 2}는 다음과 같이 정의됨 R(\theta) = \begin{pmatrix} \cos \theta & -\sin \theta \\ \sin \theta & \cos \theta \end{pmatrix}
- 3차원 회전 행렬은 회전 축에 따라 다르게 정의됨
- x축을 기준으로 회전하는 행렬 R_x(\theta) \in \mathbb{R}^{3 \times 3} R_x(\theta) = \begin{pmatrix} 1 & 0 & 0 \\ 0 & \cos \theta & -\sin \theta \\ 0 & \sin \theta & \cos \theta \end{pmatrix}
- y축을 기준으로 회전하는 행렬 R_y(\theta) \in \mathbb{R}^{3 \times 3} R_y(\theta) = \begin{pmatrix} \cos \theta & 0 & \sin \theta \\ 0 & 1 & 0 \\ -\sin \theta & 0 & \cos \theta \end{pmatrix}
- z축을 기준으로 회전하는 행렬 R_z(\theta) \in \mathbb{R}^{3 \times 3} R_z(\theta) = \begin{pmatrix} \cos \theta & -\sin \theta & 0 \\ \sin \theta & \cos \theta & 0 \\ 0 & 0 & 1 \end{pmatrix}
- 회전 행렬의 성질
- 회전 행렬은 직교 행렬이므로 R^T R = I
- 회전 행렬의 역행렬은 전치 행렬과 같음: R^{-1} = R^T
- 회전 행렬은 행렬식이 1임: \det(R) = 1
Special Orthogonal Group
- Special Orthogonal Group SO(n)은 n \times n 정사각 행렬들로 이루어진 집합으로, 이 행렬들은 다음 두 조건을 만족함
- 행렬의 행과 열이 정규 직교 벡터들로 이루어져 있음
- 행렬의 행렬식(determinant)이 1임
- 회전행렬은 SO(n)의 원소
Skew Symmetric Matrix
- 전치가 자신의 값에 음을 취한 것과 같은 행렬
- 예시:
- A \in \mathbb{R}^{3 \times 3}인 경우
- 스큐 대칭 행렬의 성질
- 대각 원소는 항상 0임
- A와 B가 스큐 대칭 행렬이면, A + B도 스큐 대칭 행렬임
- cA도 스큐 대칭 행렬임 (c \in \mathbb{R})
- A^T A는 대칭 행렬임
Gram Matrix
- 행렬 A \in \mathbb{R}^{m \times n}의 열 벡터들 {\vec{a}_1, \vec{a}_2, \ldots, \vec{a}_n}이 주어졌을 때, Gram Matrix G는 다음과 같이 정의됨
- 예시:
- A \in \mathbb{R}^{3 \times 2}인 경우
- Gram Matrix의 성질
- 대칭 행렬: G = G^T
- 양의 준정부호 행렬: 모든 고유값이 0 이상
- 벡터 집합이 선형 독립이면, Gram Matrix는 양의 정부호 행렬
Nullspace
- 행렬 A \in \mathbb{R}^{m \times n}의 nullspace는 A\vec{x} = \vec{0}을 만족하는 모든 \vec{x} \in \mathbb{R}^n의 집합
- nullspace \mathcal{N}(A)는 다음과 같이 정의됨 \mathcal{N}(A) = \{\vec{x} \in \mathbb{R}^n \mid A\vec{x} = \vec{0}\}
- nullspace의 성질
- \mathcal{N}(A)는 \mathbb{R}^n의 부분 공간
- A의 열 벡터들이 선형 독립이면, \mathcal{N}(A) = {\vec{0}}
- A의 rank와 nullity의 합은 n과 같음: \text{rank}(A) + \text{nullity}(A) = n
- 예시:
- A \in \mathbb{R}^{3 \times 3}인 경우 A = \begin{pmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{pmatrix} \mathcal{N}(A) = \left\{ \begin{pmatrix} x \\ y \\ z \end{pmatrix} \in \mathbb{R}^3 \mid \begin{pmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix} \right\} \mathcal{N}(A) = \left\{ \begin{pmatrix} t \\ -2t \\ t \end{pmatrix} \mid t \in \mathbb{R} \right\}
Determinant
- 행렬 A \in \mathbb{R}^{n \times n}의 determinant는 A가 확장하는 크기를 나타내는 값
- determinant det(A)는 다음과 같이 정의됨
- 여기서 S_n은 n개의 원소에 대한 순열 집합, \text{sgn}(\sigma)는 순열 \sigma의 부호
- 성질
- det(A^T) = det(A)
- det(AB) = det(A) \cdot det(B)
- det(A^{-1}) = \frac{1}{det(A)} (역행렬이 존재할 경우)
- det(cA) = c^n \cdot det(A) \ (\forall c \in \mathbb{R})
- A가 가역 행렬일 때, det(A) \neq 0
- 예시:
- A \in \mathbb{R}^{3 \times 3}인 경우
Quadratic Forms
- 벡터 \vec{x} \in \mathbb{R}^n와 대칭 행렬 A \in \mathbb{R}^{n \times n}에 대해, 이차 형식 Q(\vec{x})는 다음과 같이 정의됨 Q(\vec{x}) = \vec{x}^T A \vec{x}
- 예시:
- \vec{x} = \begin{pmatrix} 1 \ 2 \end{pmatrix}, A = \begin{pmatrix} 3 & 4 \ 4 & 5 \end{pmatrix}인 경우 Q(\vec{x}) = \begin{pmatrix} 1 & 2 \end{pmatrix} \begin{pmatrix} 3 & 4 \\ 4 & 5 \end{pmatrix} \begin{pmatrix} 1 \\ 2 \end{pmatrix} = 1 \cdot 3 \cdot 1 + 1 \cdot 4 \cdot 2 + 2 \cdot 4 \cdot 1 + 2 \cdot 5 \cdot 2 = 3 + 8 + 8 + 20 = 39
- 이차 형식의 성질
- Q(\vec{x})는 항상 실수 값을 가짐
- A가 양의 정부호 행렬이면, Q(\vec{x}) > 0 \ (\forall \vec{x} \neq \vec{0})
- A가 양의 준정부호 행렬이면, Q(\vec{x}) \geq 0 \ (\forall \vec{x})
- A가 음의 정부호 행렬이면, Q(\vec{x}) < 0 \ (\forall \vec{x} \neq \vec{0})
- A가 음의 준정부호 행렬이면, Q(\vec{x}) \leq 0 \ (\forall \vec{x})
- A가 부호가 없는 행렬이면, Q(\vec{x})는 양수와 음수 모두 가질 수 있음
- 이차 형식의 예시:
- \vec{x} = \begin{pmatrix} 1 \ 2 \ 3 \end{pmatrix}, A = \begin{pmatrix} 1 & 0 & 0 \ 0 & 1 & 0 \ 0 & 0 & 1 \end{pmatrix}인 경우 Q(\vec{x}) = \begin{pmatrix} 1 & 2 & 3 \end{pmatrix} \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix} = 1 \cdot 1 \cdot 1 + 2 \cdot 1 \cdot 2 + 3 \cdot 1 \cdot 3 = 1 + 4 + 9 = 14
위와 같이 다양한 모양의 그래프를 다음과 같은 식으로 일반화해 표현 가능 ax^2+bxy+cy^2+dx+ey+f=0 이를 이차 형식으로 다시 표현하면 \begin{pmatrix} x & y & 1 \end{pmatrix} \begin{pmatrix} a & \frac{b}{2} & \frac{d}{2} \\ \frac{b}{2} & c & \frac{e}{2} \\ \frac{d}{2} & \frac{e}{2} & f \end{pmatrix} \begin{pmatrix} x \\ y \\ 1 \end{pmatrix} = 0
Eigenvalues and Eigenvectors
- 행렬 A \in \mathbb{R}^{n \times n}의 고유값 \lambda와 고유벡터 \vec{v}는 다음 조건을 만족함 A\vec{v} = \lambda\vec{v}
- 여기서 \vec{v} \neq \vec{0}, \lambda \in \mathbb{R}
- 고유값 \lambda는 다음과 같은 특성 방정식의 해로 구할 수 있음 \text{det}(A - \lambda I) = 0
- 고유벡터 \vec{v}는 고유값 \lambda에 대응하는 \text{null}(A - \lambda I)의 원소
- 예시:
- A \in \mathbb{R}^{2 \times 2}인 경우 A = \begin{pmatrix} 4 & 1 \\ 2 & 3 \end{pmatrix}
- 고유값 \lambda는 다음과 같이 구할 수 있음 \text{det}(A - \lambda I) = \text{det}\begin{pmatrix} 4 - \lambda & 1 \\ 2 & 3 - \lambda \end{pmatrix} = (4 - \lambda)(3 - \lambda) - 2 = \lambda^2 - 7\lambda + 10 = 0
- \lambda = 2, 5
- 고유값 \lambda = 2에 대응하는 고유벡터 \vec{v}는 다음과 같이 구할 수 있음 (A - 2I)\vec{v} = \begin{pmatrix} 2 & 1 \\ 2 & 1 \end{pmatrix}\vec{v} = \vec{0}
- \vec{v} = \begin{pmatrix} 1 \ -2 \end{pmatrix}
- 고유값 \lambda = 5에 대응하는 고유벡터 \vec{v}는 다음과 같이 구할 수 있음 (A - 5I)\vec{v} = \begin{pmatrix} -1 & 1 \\ 2 & -2 \end{pmatrix}\vec{v} = \vec{0}
- \vec{v} = \begin{pmatrix} 1 \ 1 \end{pmatrix}
- 고유값과 고유벡터의 성질
- A의 고유값의 합은 A의 대각 원소의 합과 같음: \sum_{i=1}^{n} \lambda_i = \text{tr}(A)
- A의 고유값의 곱은 A의 행렬식과 같음: \prod_{i=1}^{n} \lambda_i = \text{det}(A)
- A가 대칭 행렬이면, 모든 고유값은 실수임
- A가 직교 행렬이면, 모든 고유값의 절댓값은 1임
EigenDecomposition
- 행렬 A \in \mathbb{R}^{n \times n}는 고유값 분해(EigenDecomposition)할 수 있음
- 고유값 분해는 A를 다음과 같이 나타내는 것 A = V \Lambda V^{-1}
- 여기서 V는 A의 고유벡터들로 이루어진 행렬, \Lambda는 A의 고유값들로 이루어진 대각 행렬
- 예시:
- A \in \mathbb{R}^{2 \times 2}인 경우 A = \begin{pmatrix} 4 & 1 \\ 2 & 3 \end{pmatrix}
- A의 고유값은 \lambda_1 = 2, \lambda_2 = 5
- A의 고유벡터는 \vec{v}_1 = \begin{pmatrix} 1 \ -2 \end{pmatrix}, \vec{v}_2 = \begin{pmatrix} 1 \ 1 \end{pmatrix}
- V와 \Lambda는 다음과 같이 나타낼 수 있음 V = \begin{pmatrix} 1 & 1 \\ -2 & 1 \end{pmatrix}, \quad \Lambda = \begin{pmatrix} 2 & 0 \\ 0 & 5 \end{pmatrix}
- 따라서 A는 다음과 같이 고유값 분해할 수 있음 A = V \Lambda V^{-1} = \begin{pmatrix} 1 & 1 \\ -2 & 1 \end{pmatrix} \begin{pmatrix} 2 & 0 \\ 0 & 5 \end{pmatrix} \begin{pmatrix} 1 & 1 \\ -2 & 1 \end{pmatrix}^{-1}
- 고유값 분해의 성질
- A가 대칭 행렬이면, V는 직교 행렬이 됨: V^T V = I
- A가 대칭 행렬이면, A는 다음과 같이 고유값 분해할 수 있음 A = Q \Lambda Q^T
- 여기서 Q는 A의 고유벡터들로 이루어진 직교 행렬, \Lambda는 A의 고유값들로 이루어진 대각 행렬
- A가 양의 정부호 행렬이면, 모든 고유값은 양수(그 반대도 성립)
- 예시:
- A \in \mathbb{R}^{2 \times 2}인 경우 A = \begin{pmatrix} 4 & 1 \\ 1 & 3 \end{pmatrix}
- A의 고유값은 \lambda_1 = 5, \lambda_2 = 2
- A의 고유벡터는 \vec{v}_1 = \begin{pmatrix} 1 \ 1 \end{pmatrix}, \vec{v}_2 = \begin{pmatrix} -1 \ 1 \end{pmatrix}
- Q와 \Lambda는 다음과 같이 나타낼 수 있음 Q = \begin{pmatrix} \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \end{pmatrix}, \quad \Lambda = \begin{pmatrix} 5 & 0 \\ 0 & 2 \end{pmatrix}
- 따라서 A는 다음과 같이 고유값 분해할 수 있음 A = Q \Lambda Q^T = \begin{pmatrix} \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \end{pmatrix} \begin{pmatrix} 5 & 0 \\ 0 & 2 \end{pmatrix} \begin{pmatrix} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ -\frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \end{pmatrix}
Singular Value Decomposition (SVD)
- SVD는 임의의 m \times n 행렬 A를 세 개의 행렬의 곱으로 분해하는 방법 A = U \Sigma V^T
- 여기서 U \in \mathbb{R}^{m \times m}, \Sigma \in \mathbb{R}^{m \times n}, V \in \mathbb{R}^{n \times n}
- U와 V는 직교 행렬, \Sigma는 대각 행렬
- \Sigma의 대각 원소는 A의 특이값 (singular values)
- U의 열 벡터는 A의 좌특이 벡터 (left singular vectors)
V의 열 벡터는 A의 우특이 벡터 (right singular vectors)
- 특이값 (Singular Values)
- 특이값은 \Sigma의 대각 원소로, A의 크기를 나타내는 값
- 특이값은 항상 0 이상
- 특이값은 A^T A의 고유값의 제곱근으로 구할 수 있음
- 특이 벡터 (Singular Vectors)
- 좌특이 벡터는 A A^T의 고유벡터
- 우특이 벡터는 A^T A의 고유벡터
- 좌특이 벡터와 우특이 벡터는 각각 U와 V의 열 벡터
- SVD의 계산 방법
- A^T A와 A A^T의 고유값과 고유벡터를 계산
- A^T A의 고유벡터를 V의 열 벡터로 사용
- A A^T의 고유벡터를 U의 열 벡터로 사용
- A^T A의 고유값의 제곱근을 \Sigma의 대각 원소로 사용
- SVD의 응용
- 차원 축소 (Dimensionality Reduction)
- 노이즈 제거 (Noise Reduction)
- 데이터 압축 (Data Compression)
- 추천 시스템 (Recommendation Systems)
- 예시
- A \in \mathbb{R}^{2 \times 2}인 경우 A = \begin{pmatrix} 4 & 0 \\ 3 & -5 \end{pmatrix}
- A^T A와 A A^T의 고유값과 고유벡터를 계산 A^T A = \begin{pmatrix} 25 & -15 \\ -15 & 25 \end{pmatrix}, \quad A A^T = \begin{pmatrix} 16 & -15 \\ -15 & 34 \end{pmatrix}
- A^T A의 고유값은 \lambda_1 = 40, \lambda_2 = 10
- A A^T의 고유값은 \lambda_1 = 40, \lambda_2 = 10
- A^T A의 고유벡터는 \vec{v}_1 = \begin{pmatrix} 1 \ -1 \end{pmatrix}, \vec{v}_2 = \begin{pmatrix} 1 \ 1 \end{pmatrix}
- A A^T의 고유벡터는 \vec{u}_1 = \begin{pmatrix} 1 \ -1 \end{pmatrix}, \vec{u}_2 = \begin{pmatrix} 1 \ 1 \end{pmatrix}
- U, \Sigma, V는 다음과 같이 나타낼 수 있음 U = \begin{pmatrix} \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \\ -\frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \end{pmatrix}, \quad \Sigma = \begin{pmatrix} \sqrt{40} & 0 \\ 0 & \sqrt{10} \end{pmatrix}, \quad V = \begin{pmatrix} \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \end{pmatrix}
- 따라서 A는 다음과 같이 SVD할 수 있음 A = U \Sigma V^T = \begin{pmatrix} \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \\ -\frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \end{pmatrix} \begin{pmatrix} \sqrt{40} & 0 \\ 0 & \sqrt{10} \end{pmatrix} \begin{pmatrix} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ -\frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \end{pmatrix}
해당 포스트는 서울대학교 컴퓨터공학부 주한별 교수님의 컴퓨터비전 25-1학기 강의를 정리한 내용입니다.
This post is licensed under CC BY 4.0 by the author.