Processing math: 23%
Post

선형대수 개념 정리

선형대수 개념 정리

Vector

  • 벡터란?
    • 벡터 공간 V의 원소 (엄밀한 정의)
    • 1-D array of numbers (in Computer Science)
      • 이후 모든 정의는 Computer Science의 방식을 따름
  • # of elements in a vector = size(dimension, length) of a vector
x=[1,3,6]TR3
  • 스칼라
xiR

Matrices

  • 2-D array of numbers
  • ARm×n
A=(a11a12a1na21a22a2nam1am2amn)

Tensor

  • 다차원 배열의 일반화된 개념
  • 텐서의 차원 (rank)
    • 스칼라: 0차 텐서
    • 벡터: 1차 텐서
    • 행렬: 2차 텐서
    • 3차원 이상의 텐서
  • 텐서의 표기법
    • TRn1×n2××nk
  • 예시:
    • RGB 이미지 텐서
      • 3차원 텐서로 표현
      • 크기: height×width×3
      • 각 채널 (R, G, B)은 2차원 행렬
      • 예시: I=((r11r12r1wr21r22r2wrh1rh2rhw)(g11g12g1wg21g22g2wgh1gh2ghw)(b11b12b1wb21b22b2wbh1bh2bhw))
    • 영상 텐서
      • 비디오 데이터는 4차원 텐서로 표현
        • 크기: frames×height×width×channels
        • 각 프레임은 3차원 텐서 (RGB 이미지)
        • 예시: V=(I1I2If)

Identity Matrix

  • 대각 원소가 모두 1이고 나머지는 0인 행렬
  • 항등 행렬 IRn×n
I=(100010001)
  • 항등 행렬의 성질
    • AIn=A (ARm×n)
    • ImA=A (ARm×n)
    • IT=I
    • I1=I

Diagonal Matrix

  • 대각 원소 외의 모든 원소가 0인 행렬
  • 대각 행렬 DRn×n
D=(d11000d22000dnn)
  • 대각 행렬의 성질
    • DT=D
    • D1는 존재할 경우 대각 행렬
    • D1D2=D2D1 (대각 행렬 간의 곱셈은 교환 법칙이 성립)
  • Also denoted: D=diag(d11,d22,,dnn)

Matrix-Matrix multiplication

  • 두 행렬 ARm×n, BRn×p의 곱 CRm×p는 다음과 같이 정의됨
C=AB=(c11c12c1pc21c22c2pcm1cm2cmp)
  • 각 원소 cij는 다음과 같이 계산됨
cij=nk=1aikbkj
  • 행렬 곱셈의 성질
    • 결합 법칙: A(BC)=(AB)C
    • 분배 법칙: A(B+C)=AB+AC
    • 일반적으로 교환 법칙은 성립하지 않음: ABBA
  • 예시:
    • AR2×3, BR3×2인 경우
A=(123456),B=(789101112) AB=(17+29+31118+210+31247+59+61148+510+612)=(5864139154)

Vector-Vector Product

  • 내적 (Dot Product)
    • 두 벡터 a,bRn의 내적은 다음과 같이 정의됨 ab=ni=1aibi
    • 예시: a=(123),b=(456) ab=14+25+36=32
  • 외적 (Cross Product)
    • 두 벡터 a,bR3의 외적은 다음과 같이 정의됨 a×b=(a2b3a3b2a3b1a1b3a1b2a2b1)
    • 예시: a=(123),b=(456) a×b=(263534161524)=(363)

Representing 2D lines via Vector-Vector Product

image

y=ax+b{(x,y)|ax+by+c=0}(a,b,c)(xy1)=0

Matrix-Vector Product

  • ARm×n 의 행을 중심으로 볼 때:
    • A의 각 행을 aTi로 나타낼 수 있음 A=(aT1aT2aTm)
    • Ax는 각 aTix의 내적을 포함하는 벡터 Ax=(aT1xaT2xaTmx)
  • ARm×n 의 열을 중심으로 볼 때:
    • A의 각 열을 aj로 나타낼 수 있음 A=(a1a2an)
    • Ax는 각 ajxj의 선형결합(linear combination)으로 나타낼 수 있음 Ax=x1a1+x2a2++xnan

Hadamard Product (Element-wise Product)

  • 두 행렬 ARm×n, BRm×n의 Hadamard 곱 CRm×n는 다음과 같이 정의됨
C=AB=(a11b11a12b12a1nb1na21b21a22b22a2nb2nam1bm1am2bm2amnbmn)
  • 각 원소 cij는 다음과 같이 계산됨
cij=aijbij
  • 예시:
    • AR2×3, BR2×3인 경우
A=(123456),B=(789101112) AB=(172839410511612)=(71627405572)

Transpose

  • 행렬 ARm×n의 전치는 ATRn×m로 나타내며, A의 행과 열을 뒤바꾼 행렬임
AT=(a11a21am1a12a22am2a1na2namn)
  • 전치 행렬의 성질
    • (AT)T=A
    • (A+B)T=AT+BT
    • (cA)T=cAT (cR)
    • (AB)T=BTAT
  • 예시:
    • AR2×3인 경우
A=(123456) AT=(142536)

Trace

  • 행렬 ARn×n의 대각 원소의 합
  • trace tr(A)는 다음과 같이 정의됨
tr(A)=ni=1aii
  • 성질
    • tr(A+B)=tr(A)+tr(B)
    • tr(cA)=ctr(A) (cR)
    • tr(AT)=tr(A)
    • tr(AB)=tr(BA)
  • 예시:
    • AR3×3인 경우
A=(123456789) tr(A)=1+5+9=15

Norms

Vector Norms

  • 벡터 xRn의 norm은 벡터의 크기를 측정하는 방법
  • p-norm (Lp norm)
    • p1인 경우, p-norm은 다음과 같이 정의됨
    • 특수한 경우:
      • p = 1: 맨하탄 norm (Manhattan norm) \|\vec{x}\|_1 = \sum_{i=1}^{n} |x_i|
      • p = 2: 유클리드 norm (Euclidean norm) \|\vec{x}\|_2 = \left( \sum_{i=1}^{n} x_i^2 \right)^{\frac{1}{2}}
      • p \rightarrow \infty: 최대 norm (Maximum norm) \|\vec{x}\|_\infty = \max_{i} |x_i|
        • p \rightarrow \infty 일때 가장 큰 성분이 norm을 결정
      • p = 0: 제로 norm (Zero norm) \|\vec{x}\|_0 = \lim_{p \to 0} \left( \sum_{i=1}^{n} |x_i|^p \right)^{\frac{1}{p}} = \# \{i \mid x_i \neq 0\}
        • 제로 norm은 엄밀히 말해 norm이 아니며(homogeneity 만족하지 못함), 벡터에서 0이 아닌 원소의 개수를 측정함
          ※ homogeneity: |\alpha\vec{x}|\ = |\alpha||\vec{x}|

Matrix Norms

  • 행렬 A \in \mathbb{R}^{m \times n}의 norm은 행렬의 크기를 측정하는 방법
  • 프로베니우스 norm (Frobenius norm)
    • 프로베니우스 norm은 행렬의 각 원소의 제곱합의 제곱근으로 정의됨 \|A\|_F = \left( \sum_{i=1}^{m} \sum_{j=1}^{n} |a_{ij}|^2 \right)^{\frac{1}{2}}

Linearly Dependent and Independent

  • 벡터 집합 {\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k}가 주어졌을 때, 이 벡터들이 선형 독립인지 종속인지를 판단할 수 있음
  • 선형 독립 (Linearly Independent)
    • 벡터 집합 {\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k}가 선형 독립이라는 것은, 이 벡터들 사이에 자명하지 않은 선형 결합이 존재하지 않음을 의미
    • 즉, c_1\vec{v}_1 + c_2\vec{v}_2 + \cdots + c_k\vec{v}_k = \vec{0} 일 때, c_1 = c_2 = \cdots = c_k = 0 이어야 함
  • 선형 종속 (Linearly Dependent)
    • 벡터 집합 {\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k}가 선형 종속이라는 것은, 이 벡터들 사이에 자명하지 않은 선형 결합이 존재함을 의미
    • 즉, c_1\vec{v}_1 + c_2\vec{v}_2 + \cdots + c_k\vec{v}_k = \vec{0} 일 때, 적어도 하나의 c_i \neq 0 인 경우가 존재함
  • 예시:
    • \vec{v}_1 = \begin{pmatrix} 1 \ 2 \ 3 \end{pmatrix}, \vec{v}_2 = \begin{pmatrix} 4 \ 5 \ 6 \end{pmatrix}, \vec{v}_3 = \begin{pmatrix} 7 \ 8 \ 9 \end{pmatrix}인 경우
    • \vec{v}_1, \vec{v}_2, \vec{v}_3는 선형 종속임
    • -3\vec{v}_1 + 3\vec{v}_2 - \vec{v}_3 = \vec{0} 이기 때문

Rank of A Matrix

  • 행렬 A \in \mathbb{R}^{m \times n}의 rank는 행렬의 선형 독립인 행 또는 열 벡터의 최대 개수
  • rank r(A)는 다음과 같이 정의됨
    • r(A) = \text{dim}(\text{col space of } A) = \text{dim}(\text{row space of } A)
  • 성질
    • r(A) \leq \min(m, n)
    • r(A) = r(A^T)
    • r(AB) \leq \min(r(A), r(B))
    • r(A+B) \leq r(A)+r(B)
  • 예시:
    • A \in \mathbb{R}^{3 \times 3}인 경우
A = \begin{pmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{pmatrix} r(A) = 2

Inverse of A Square Matrix

  • 역행렬 (Inverse Matrix)
    • 정사각 행렬 A \in \mathbb{R}^{n \times n}의 역행렬 A^{-1}AA^{-1} = A^{-1}A = I를 만족하는 행렬
    • 역행렬이 존재하려면 A는 가역적 (invertible)이어야 함
    • 역행렬의 성질
      • (A^{-1})^{-1} = A
      • (AB)^{-1} = B^{-1}A^{-1}
      • (A^T)^{-1} = (A^{-1})^T

Span and Projection

Span

  • 벡터 집합 {\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k}의 span은 이 벡터들의 선형 결합으로 표현될 수 있는 모든 벡터의 집합
  • span \text{span}({\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k})는 다음과 같이 정의됨 \text{span}(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k\}) = \{c_1\vec{v}_1 + c_2\vec{v}_2 + \cdots + c_k\vec{v}_k \mid c_1, c_2, \ldots, c_k \in \mathbb{R}\}
  • 예시:
    • \vec{v}_1 = \begin{pmatrix} 1 \ 0 \ 0 \end{pmatrix}, \vec{v}_2 = \begin{pmatrix} 0 \ 1 \ 0 \end{pmatrix}인 경우
    • \text{span}({\vec{v}_1, \vec{v}_2})\mathbb{R}^2의 모든 벡터를 포함

Projection

  • \vec{y} \in \mathbb{R}^m\text{span}({x_1, x_2, \ldots, x_n})에 Projection한 결과는 다음과 같은 문제로 정의될 수 있음
    \arg \min_{\hat{y} \in \text{span}(\{x_1, x_2, \ldots, x_n\})} \|\vec{y} - \hat{y}\|_2

  • \vec{y}\text{span}({x_1, x_2, \ldots, x_n})에 정사영한 결과는 \hat{y}로 나타낼 수 있음 \hat{y} = X(X^TX)^{-1}X^T\vec{y}
  • 여기서 X{x_1, x_2, \ldots, x_n}를 열 벡터로 가지는 행렬 X = \begin{pmatrix} | & | & & | \\ x_1 & x_2 & \cdots & x_n \\ | & | & & | \end{pmatrix}
  • 예시:
    • \vec{y} = \begin{pmatrix} 1 \ 2 \ 3 \end{pmatrix}, x_1 = \begin{pmatrix} 1 \ 0 \ 0 \end{pmatrix}, x_2 = \begin{pmatrix} 0 \ 1 \ 0 \end{pmatrix}인 경우
    • \vec{y}\text{span}({x_1, x_2})에 정사영한 결과는 \hat{y} = \begin{pmatrix} 1 \ 2 \ 0 \end{pmatrix}

Basis and Dimension

  • Basis
    • 벡터 공간 V의 기저 (basis)는 V의 모든 벡터를 선형 결합으로 표현할 수 있는 선형 독립 벡터들의 집합
    • 기저 {\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n}는 다음과 같은 성질을 가짐
      • \text{span}({\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n}) = V
      • {\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n}는 선형 독립
    • 예시:
      • \mathbb{R}^3의 표준 기저는 {\begin{pmatrix} 1 \ 0 \ 0 \end{pmatrix}, \begin{pmatrix} 0 \ 1 \ 0 \end{pmatrix}, \begin{pmatrix} 0 \ 0 \ 1 \end{pmatrix}}
  • Dimension
    • 벡터 공간 V의 차원 (dimension)은 V의 기저를 이루는 벡터의 개수
    • \text{dim}(V)로 나타내며, V의 모든 기저는 동일한 개수의 벡터를 가짐

Orthogonal Matrices

Orthogonal and Orthonormal Vectors

  • Orthogonal Vectors
    • 두 벡터 \vec{u}, \vec{v} \in \mathbb{R}^n가 직교한다는 것은, 이 두 벡터의 내적이 0임을 의미 \vec{u} \cdot \vec{v} = 0
  • Orthonormal Vectors
    • 두 벡터 \vec{u}, \vec{v} \in \mathbb{R}^n가 정규 직교한다는 것은, 이 두 벡터가 직교하고, 각각의 벡터의 norm이 1임을 의미 \|\vec{u}\| = 1, \quad \|\vec{v}\| = 1, \quad \vec{u} \cdot \vec{v} = 0
    • 예시: \vec{u} = \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}, \quad \vec{v} = \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}

Orthogonal Matrix

  • Orthogonal Matrix
    • 행렬 Q \in \mathbb{R}^{n \times n}가 직교 행렬이라는 것은, Q의 열 벡터들이 서로 직교하고, 각 열 벡터의 norm이 1임을 의미
    • 즉, Q의 열 벡터들이 정규 직교 벡터들로 이루어져 있음
    • 직교 행렬의 성질
      • Q^T Q = QQ^T = I
      • Q^{-1} = Q^T
      • Q의 열 벡터와 행 벡터는 모두 정규 직교 벡터들로 이루어져 있음

Rotation Matrix

  • 회전 행렬은 벡터를 원점 기준으로 회전시키는 변환을 나타내는 행렬
  • 2차원 회전 행렬 R(\theta) \in \mathbb{R}^{2 \times 2}는 다음과 같이 정의됨 R(\theta) = \begin{pmatrix} \cos \theta & -\sin \theta \\ \sin \theta & \cos \theta \end{pmatrix}
  • 3차원 회전 행렬은 회전 축에 따라 다르게 정의됨
    • x축을 기준으로 회전하는 행렬 R_x(\theta) \in \mathbb{R}^{3 \times 3} R_x(\theta) = \begin{pmatrix} 1 & 0 & 0 \\ 0 & \cos \theta & -\sin \theta \\ 0 & \sin \theta & \cos \theta \end{pmatrix}
    • y축을 기준으로 회전하는 행렬 R_y(\theta) \in \mathbb{R}^{3 \times 3} R_y(\theta) = \begin{pmatrix} \cos \theta & 0 & \sin \theta \\ 0 & 1 & 0 \\ -\sin \theta & 0 & \cos \theta \end{pmatrix}
    • z축을 기준으로 회전하는 행렬 R_z(\theta) \in \mathbb{R}^{3 \times 3} R_z(\theta) = \begin{pmatrix} \cos \theta & -\sin \theta & 0 \\ \sin \theta & \cos \theta & 0 \\ 0 & 0 & 1 \end{pmatrix}
  • 회전 행렬의 성질
    • 회전 행렬은 직교 행렬이므로 R^T R = I
    • 회전 행렬의 역행렬은 전치 행렬과 같음: R^{-1} = R^T
    • 회전 행렬은 행렬식이 1임: \det(R) = 1

Special Orthogonal Group

  • Special Orthogonal Group SO(n)n \times n 정사각 행렬들로 이루어진 집합으로, 이 행렬들은 다음 두 조건을 만족함
    1. 행렬의 행과 열이 정규 직교 벡터들로 이루어져 있음
    2. 행렬의 행렬식(determinant)이 1임
  • 회전행렬은 SO(n)의 원소

Skew Symmetric Matrix

  • 전치가 자신의 값에 음을 취한 것과 같은 행렬
A^T = -A
  • 예시:
    • A \in \mathbb{R}^{3 \times 3}인 경우
A = \begin{pmatrix} 0 & -2 & 3 \\ 2 & 0 & -1 \\ -3 & 1 & 0 \end{pmatrix}
  • 스큐 대칭 행렬의 성질
    • 대각 원소는 항상 0임
    • AB가 스큐 대칭 행렬이면, A + B도 스큐 대칭 행렬임
    • cA도 스큐 대칭 행렬임 (c \in \mathbb{R})
    • A^T A는 대칭 행렬임

Gram Matrix

  • 행렬 A \in \mathbb{R}^{m \times n}의 열 벡터들 {\vec{a}_1, \vec{a}_2, \ldots, \vec{a}_n}이 주어졌을 때, Gram Matrix G는 다음과 같이 정의됨
G = A^TA = \begin{pmatrix} \vec{a}_1 \cdot \vec{a}_1 & \vec{a}_1 \cdot \vec{a}_2 & \cdots & \vec{a}_1 \cdot \vec{a}_n \\ \vec{a}_2 \cdot \vec{a}_1 & \vec{a}_2 \cdot \vec{a}_2 & \cdots & \vec{a}_2 \cdot \vec{a}_n \\ \vdots & \vdots & \ddots & \vdots \\ \vec{a}_n \cdot \vec{a}_1 & \vec{a}_n \cdot \vec{a}_2 & \cdots & \vec{a}_n \cdot \vec{a}_n \end{pmatrix}
  • 예시:
    • A \in \mathbb{R}^{3 \times 2}인 경우
A = \begin{pmatrix} 1 & 2 \\ 3 & 4 \\ 5 & 6 \end{pmatrix} \vec{a}_1 = \begin{pmatrix} 1 \\ 3 \\ 5 \end{pmatrix}, \quad \vec{a}_2 = \begin{pmatrix} 2 \\ 4 \\ 6 \end{pmatrix} G = \begin{pmatrix} \vec{a}_1 \cdot \vec{a}_1 & \vec{a}_1 \cdot \vec{a}_2 \\ \vec{a}_2 \cdot \vec{a}_1 & \vec{a}_2 \cdot \vec{a}_2 \end{pmatrix} = \begin{pmatrix} 35 & 44 \\ 44 & 56 \end{pmatrix}
  • Gram Matrix의 성질
    • 대칭 행렬: G = G^T
    • 양의 준정부호 행렬: 모든 고유값이 0 이상
    • 벡터 집합이 선형 독립이면, Gram Matrix는 양의 정부호 행렬

Nullspace

  • 행렬 A \in \mathbb{R}^{m \times n}의 nullspace는 A\vec{x} = \vec{0}을 만족하는 모든 \vec{x} \in \mathbb{R}^n의 집합
  • nullspace \mathcal{N}(A)는 다음과 같이 정의됨 \mathcal{N}(A) = \{\vec{x} \in \mathbb{R}^n \mid A\vec{x} = \vec{0}\}
  • nullspace의 성질
    • \mathcal{N}(A)\mathbb{R}^n의 부분 공간
    • A의 열 벡터들이 선형 독립이면, \mathcal{N}(A) = {\vec{0}}
    • A의 rank와 nullity의 합은 n과 같음: \text{rank}(A) + \text{nullity}(A) = n
  • 예시:
    • A \in \mathbb{R}^{3 \times 3}인 경우 A = \begin{pmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{pmatrix} \mathcal{N}(A) = \left\{ \begin{pmatrix} x \\ y \\ z \end{pmatrix} \in \mathbb{R}^3 \mid \begin{pmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix} \right\} \mathcal{N}(A) = \left\{ \begin{pmatrix} t \\ -2t \\ t \end{pmatrix} \mid t \in \mathbb{R} \right\}

Determinant

  • 행렬 A \in \mathbb{R}^{n \times n}의 determinant는 A가 확장하는 크기를 나타내는 값
  • determinant det(A)는 다음과 같이 정의됨
\text{det}(A) = \sum_{\sigma \in S_n} \text{sgn}(\sigma) \prod_{i=1}^{n} a_{i, \sigma(i)}
  • 여기서 S_nn개의 원소에 대한 순열 집합, \text{sgn}(\sigma)는 순열 \sigma의 부호
  • 성질
    • det(A^T) = det(A)
    • det(AB) = det(A) \cdot det(B)
    • det(A^{-1}) = \frac{1}{det(A)} (역행렬이 존재할 경우)
    • det(cA) = c^n \cdot det(A) \ (\forall c \in \mathbb{R})
    • A가 가역 행렬일 때, det(A) \neq 0
  • 예시:
    • A \in \mathbb{R}^{3 \times 3}인 경우
A = \begin{pmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{pmatrix} \text{det}(A) = 1(5 \cdot 9 - 6 \cdot 8) - 2(4 \cdot 9 - 6 \cdot 7) + 3(4 \cdot 8 - 5 \cdot 7) = 0

Quadratic Forms

  • 벡터 \vec{x} \in \mathbb{R}^n와 대칭 행렬 A \in \mathbb{R}^{n \times n}에 대해, 이차 형식 Q(\vec{x})는 다음과 같이 정의됨 Q(\vec{x}) = \vec{x}^T A \vec{x}
  • 예시:
    • \vec{x} = \begin{pmatrix} 1 \ 2 \end{pmatrix}, A = \begin{pmatrix} 3 & 4 \ 4 & 5 \end{pmatrix}인 경우 Q(\vec{x}) = \begin{pmatrix} 1 & 2 \end{pmatrix} \begin{pmatrix} 3 & 4 \\ 4 & 5 \end{pmatrix} \begin{pmatrix} 1 \\ 2 \end{pmatrix} = 1 \cdot 3 \cdot 1 + 1 \cdot 4 \cdot 2 + 2 \cdot 4 \cdot 1 + 2 \cdot 5 \cdot 2 = 3 + 8 + 8 + 20 = 39
  • 이차 형식의 성질
    • Q(\vec{x})는 항상 실수 값을 가짐
    • A가 양의 정부호 행렬이면, Q(\vec{x}) > 0 \ (\forall \vec{x} \neq \vec{0})
    • A가 양의 준정부호 행렬이면, Q(\vec{x}) \geq 0 \ (\forall \vec{x})
    • A가 음의 정부호 행렬이면, Q(\vec{x}) < 0 \ (\forall \vec{x} \neq \vec{0})
    • A가 음의 준정부호 행렬이면, Q(\vec{x}) \leq 0 \ (\forall \vec{x})
    • A가 부호가 없는 행렬이면, Q(\vec{x})는 양수와 음수 모두 가질 수 있음
  • 이차 형식의 예시:
    • \vec{x} = \begin{pmatrix} 1 \ 2 \ 3 \end{pmatrix}, A = \begin{pmatrix} 1 & 0 & 0 \ 0 & 1 & 0 \ 0 & 0 & 1 \end{pmatrix}인 경우 Q(\vec{x}) = \begin{pmatrix} 1 & 2 & 3 \end{pmatrix} \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix} = 1 \cdot 1 \cdot 1 + 2 \cdot 1 \cdot 2 + 3 \cdot 1 \cdot 3 = 1 + 4 + 9 = 14

image 위와 같이 다양한 모양의 그래프를 다음과 같은 식으로 일반화해 표현 가능 ax^2+bxy+cy^2+dx+ey+f=0 이를 이차 형식으로 다시 표현하면 \begin{pmatrix} x & y & 1 \end{pmatrix} \begin{pmatrix} a & \frac{b}{2} & \frac{d}{2} \\ \frac{b}{2} & c & \frac{e}{2} \\ \frac{d}{2} & \frac{e}{2} & f \end{pmatrix} \begin{pmatrix} x \\ y \\ 1 \end{pmatrix} = 0

Eigenvalues and Eigenvectors

  • 행렬 A \in \mathbb{R}^{n \times n}의 고유값 \lambda와 고유벡터 \vec{v}는 다음 조건을 만족함 A\vec{v} = \lambda\vec{v}
  • 여기서 \vec{v} \neq \vec{0}, \lambda \in \mathbb{R}
  • 고유값 \lambda는 다음과 같은 특성 방정식의 해로 구할 수 있음 \text{det}(A - \lambda I) = 0
  • 고유벡터 \vec{v}는 고유값 \lambda에 대응하는 \text{null}(A - \lambda I)의 원소
  • 예시:
    • A \in \mathbb{R}^{2 \times 2}인 경우 A = \begin{pmatrix} 4 & 1 \\ 2 & 3 \end{pmatrix}
    • 고유값 \lambda는 다음과 같이 구할 수 있음 \text{det}(A - \lambda I) = \text{det}\begin{pmatrix} 4 - \lambda & 1 \\ 2 & 3 - \lambda \end{pmatrix} = (4 - \lambda)(3 - \lambda) - 2 = \lambda^2 - 7\lambda + 10 = 0
    • \lambda = 2, 5
    • 고유값 \lambda = 2에 대응하는 고유벡터 \vec{v}는 다음과 같이 구할 수 있음 (A - 2I)\vec{v} = \begin{pmatrix} 2 & 1 \\ 2 & 1 \end{pmatrix}\vec{v} = \vec{0}
    • \vec{v} = \begin{pmatrix} 1 \ -2 \end{pmatrix}
    • 고유값 \lambda = 5에 대응하는 고유벡터 \vec{v}는 다음과 같이 구할 수 있음 (A - 5I)\vec{v} = \begin{pmatrix} -1 & 1 \\ 2 & -2 \end{pmatrix}\vec{v} = \vec{0}
    • \vec{v} = \begin{pmatrix} 1 \ 1 \end{pmatrix}
  • 고유값과 고유벡터의 성질
    • A의 고유값의 합은 A의 대각 원소의 합과 같음: \sum_{i=1}^{n} \lambda_i = \text{tr}(A)
    • A의 고유값의 곱은 A의 행렬식과 같음: \prod_{i=1}^{n} \lambda_i = \text{det}(A)
    • A가 대칭 행렬이면, 모든 고유값은 실수임
    • A가 직교 행렬이면, 모든 고유값의 절댓값은 1임

EigenDecomposition

  • 행렬 A \in \mathbb{R}^{n \times n}는 고유값 분해(EigenDecomposition)할 수 있음
  • 고유값 분해는 A를 다음과 같이 나타내는 것 A = V \Lambda V^{-1}
  • 여기서 VA의 고유벡터들로 이루어진 행렬, \LambdaA의 고유값들로 이루어진 대각 행렬
  • 예시:
    • A \in \mathbb{R}^{2 \times 2}인 경우 A = \begin{pmatrix} 4 & 1 \\ 2 & 3 \end{pmatrix}
    • A의 고유값은 \lambda_1 = 2, \lambda_2 = 5
    • A의 고유벡터는 \vec{v}_1 = \begin{pmatrix} 1 \ -2 \end{pmatrix}, \vec{v}_2 = \begin{pmatrix} 1 \ 1 \end{pmatrix}
    • V\Lambda는 다음과 같이 나타낼 수 있음 V = \begin{pmatrix} 1 & 1 \\ -2 & 1 \end{pmatrix}, \quad \Lambda = \begin{pmatrix} 2 & 0 \\ 0 & 5 \end{pmatrix}
    • 따라서 A는 다음과 같이 고유값 분해할 수 있음 A = V \Lambda V^{-1} = \begin{pmatrix} 1 & 1 \\ -2 & 1 \end{pmatrix} \begin{pmatrix} 2 & 0 \\ 0 & 5 \end{pmatrix} \begin{pmatrix} 1 & 1 \\ -2 & 1 \end{pmatrix}^{-1}
  • 고유값 분해의 성질
    • A가 대칭 행렬이면, V는 직교 행렬이 됨: V^T V = I
    • A가 대칭 행렬이면, A는 다음과 같이 고유값 분해할 수 있음 A = Q \Lambda Q^T
      • 여기서 QA의 고유벡터들로 이루어진 직교 행렬, \LambdaA의 고유값들로 이루어진 대각 행렬
    • A가 양의 정부호 행렬이면, 모든 고유값은 양수(그 반대도 성립)
  • 예시:
    • A \in \mathbb{R}^{2 \times 2}인 경우 A = \begin{pmatrix} 4 & 1 \\ 1 & 3 \end{pmatrix}
    • A의 고유값은 \lambda_1 = 5, \lambda_2 = 2
    • A의 고유벡터는 \vec{v}_1 = \begin{pmatrix} 1 \ 1 \end{pmatrix}, \vec{v}_2 = \begin{pmatrix} -1 \ 1 \end{pmatrix}
    • Q\Lambda는 다음과 같이 나타낼 수 있음 Q = \begin{pmatrix} \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \end{pmatrix}, \quad \Lambda = \begin{pmatrix} 5 & 0 \\ 0 & 2 \end{pmatrix}
    • 따라서 A는 다음과 같이 고유값 분해할 수 있음 A = Q \Lambda Q^T = \begin{pmatrix} \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \end{pmatrix} \begin{pmatrix} 5 & 0 \\ 0 & 2 \end{pmatrix} \begin{pmatrix} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ -\frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \end{pmatrix}

Singular Value Decomposition (SVD)

  • SVD는 임의의 m \times n 행렬 A를 세 개의 행렬의 곱으로 분해하는 방법 A = U \Sigma V^T
  • 여기서 U \in \mathbb{R}^{m \times m}, \Sigma \in \mathbb{R}^{m \times n}, V \in \mathbb{R}^{n \times n}
  • UV는 직교 행렬, \Sigma는 대각 행렬
  • \Sigma의 대각 원소는 A의 특이값 (singular values)
  • U의 열 벡터는 A의 좌특이 벡터 (left singular vectors)
  • V의 열 벡터는 A의 우특이 벡터 (right singular vectors)

  • 특이값 (Singular Values)
    • 특이값은 \Sigma의 대각 원소로, A의 크기를 나타내는 값
    • 특이값은 항상 0 이상
    • 특이값은 A^T A의 고유값의 제곱근으로 구할 수 있음
  • 특이 벡터 (Singular Vectors)
    • 좌특이 벡터는 A A^T의 고유벡터
    • 우특이 벡터는 A^T A의 고유벡터
    • 좌특이 벡터와 우특이 벡터는 각각 UV의 열 벡터
  • SVD의 계산 방법
    1. A^T AA A^T의 고유값과 고유벡터를 계산
    2. A^T A의 고유벡터를 V의 열 벡터로 사용
    3. A A^T의 고유벡터를 U의 열 벡터로 사용
    4. A^T A의 고유값의 제곱근을 \Sigma의 대각 원소로 사용
  • SVD의 응용
    • 차원 축소 (Dimensionality Reduction)
    • 노이즈 제거 (Noise Reduction)
    • 데이터 압축 (Data Compression)
    • 추천 시스템 (Recommendation Systems)
  • 예시
    • A \in \mathbb{R}^{2 \times 2}인 경우 A = \begin{pmatrix} 4 & 0 \\ 3 & -5 \end{pmatrix}
    • A^T AA A^T의 고유값과 고유벡터를 계산 A^T A = \begin{pmatrix} 25 & -15 \\ -15 & 25 \end{pmatrix}, \quad A A^T = \begin{pmatrix} 16 & -15 \\ -15 & 34 \end{pmatrix}
    • A^T A의 고유값은 \lambda_1 = 40, \lambda_2 = 10
    • A A^T의 고유값은 \lambda_1 = 40, \lambda_2 = 10
    • A^T A의 고유벡터는 \vec{v}_1 = \begin{pmatrix} 1 \ -1 \end{pmatrix}, \vec{v}_2 = \begin{pmatrix} 1 \ 1 \end{pmatrix}
    • A A^T의 고유벡터는 \vec{u}_1 = \begin{pmatrix} 1 \ -1 \end{pmatrix}, \vec{u}_2 = \begin{pmatrix} 1 \ 1 \end{pmatrix}
    • U, \Sigma, V는 다음과 같이 나타낼 수 있음 U = \begin{pmatrix} \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \\ -\frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \end{pmatrix}, \quad \Sigma = \begin{pmatrix} \sqrt{40} & 0 \\ 0 & \sqrt{10} \end{pmatrix}, \quad V = \begin{pmatrix} \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \end{pmatrix}
    • 따라서 A는 다음과 같이 SVD할 수 있음 A = U \Sigma V^T = \begin{pmatrix} \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \\ -\frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \end{pmatrix} \begin{pmatrix} \sqrt{40} & 0 \\ 0 & \sqrt{10} \end{pmatrix} \begin{pmatrix} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ -\frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \end{pmatrix}

해당 포스트는 서울대학교 컴퓨터공학부 주한별 교수님의 컴퓨터비전 25-1학기 강의를 정리한 내용입니다.

This post is licensed under CC BY 4.0 by the author.