구조화된 사전지식으로 향상된 희소 표현 기반 하이퍼스펙트럼 이미지 분류
초록
본 논문은 희소 표현 분류기(SRC)에 다양한 구조화된 정규화를 결합하여 하이퍼스펙트럼 이미지(HSI) 분류 성능을 향상시키는 방법을 제시한다. 기존 ℓ₁ 정규화 외에 공동 희소성, 라플라시안 정규화, 그룹 라쏘, 희소 그룹 라쏘, 저계수(rank) 정규화 및 새롭게 제안한 저계수-그룹 정규화를 비교·평가한다. 실험 결과, 특히 저계수-그룹 정규화가 다른 방법들을 능가하며, 공간적·스펙트럼적 상관관계를 효과적으로 활용함을 확인하였다.
상세 분석
본 연구는 전통적인 ℓ₁ 기반 희소 표현 분류기(SRC)가 고차원 하이퍼스펙트럼 데이터에서 사전 지식이 부족할 경우 불안정해지는 문제를 인식하고, 이를 보완하기 위해 구조화된 정규화(prior)를 도입한다. 구조화된 정규화는 크게 (a) 이웃 픽셀 간의 공간적·스펙트럼적 상관관계를 활용하는 방법, (b) 사전 자체의 클래스별 그룹 구조를 이용하는 방법, (c) 두 요소를 동시에 고려하는 복합 방법으로 구분된다.
-
공동 희소성(Joint Sparsity, JS)
이웃 픽셀 T개를 하나의 행렬 Y에 모아 동일한 원자 집합을 선택하도록 ℓ₂,₁ 정규화를 적용한다. 이는 행이 희소한 행렬 X를 유도해, 동일한 서브딕셔너리 원소가 여러 픽셀에 공유되도록 강제한다. 장점은 동일 물질 영역에서 강력한 클래스 일관성을 제공하지만, 경계 영역에서는 과도한 제약으로 오분류가 발생한다. -
라플라시안 희소성(Laplacian Sparsity, LS)
픽셀 간 유사도 행렬 W를 정의하고, 그래프 라플라시안 L을 이용해 X의 행간 차이를 정규화한다. ℓ₁ 정규화와 트레이스 형태의 라플라시안 항을 결합함으로써, 유사한 픽셀은 비슷한 계수를, 서로 다른 픽셀은 차이를 크게 유지하도록 유도한다. 이는 JS보다 유연하며, 경계에서 서로 다른 클래스가 섞여 있을 때도 적절히 구분한다. 구현 시 Sparse Subspace Clustering을 통해 W를 추정한다. -
그룹 라쏘(Group Lasso, GS)
사전 A가 클래스별 서브딕셔너리 G₁…G_K 로 구성된 점을 이용해, 각 그룹의 ℓ₂ 노름을 가중합하는 정규화(∑w_g‖x_g‖₂)를 적용한다. 이는 특정 클래스 전체가 선택되거나 완전히 배제되는 그룹 수준의 희소성을 촉진한다. 혼합 픽셀(다중 물질) 상황에서 유리하지만, 그룹 내부의 원자 선택이 과도하게 포괄적일 수 있다. -
희소 그룹 라쏘(Sparse Group Lasso, SGS)
GS에 추가로 전체 ℓ₁ 정규화를 더해 그룹 내부에서도 원자 수준의 희소성을 강제한다. 즉, ∑w_g‖x_g‖₂ + λ‖x‖₁ 형태로 두 정규화를 동시에 최적화한다. 이는 GS의 과도한 그룹 포괄성을 보완하면서도, 그룹 선택을 유지한다. 다중 픽셀을 동시에 처리하는 협업 형태(Collaborative Sparse Group Lasso, CHiLasso)와도 연결된다. -
저계수 정규화(Low-Rank, LR)
이웃 픽셀들의 계수 행렬 X에 핵심적인 저계수(핵노름) ‖X‖_* 를 적용한다. 이는 행렬이 낮은 차원을 갖도록 강제해, 동일 서브스페이스에 속하는 픽셀들이 비슷한 선형 조합을 사용하도록 만든다. JS가 행 희소성을 강제하는 반면, LR은 전체 행렬의 구조적 저차원을 활용하므로 경계가 섞인 경우에도 더 유연하게 작동한다. -
저계수-그룹 정규화(Low-Rank Group, LRG) – 논문의 핵심 기여
LR과 GS를 결합한 형태로, 각 클래스 그룹별로 핵노름을 구하고 이를 합산한다(∑w_g‖X_g‖_*). 하나의 정규화 항만으로 (1) 그룹 간 희소성(어떤 클래스가 선택되는가)과 (2) 그룹 내부 저계수(그 내부에서의 상관관계) 두 가지를 동시에 달성한다. 이는 기존 CHiLasso가 두 개의 정규화 항을 필요로 하는 점을 간소화하면서도, 실험적으로 가장 높은 정확도와 κ 값을 기록한다.
최적화 방법
- ℓ₁ 기반 문제는 ADMM 혹은 SpaRSA로 해결한다.
- 라플라시안 정규화는 수정된 Feature‑Sign Search(FSS) 알고리즘을 사용한다.
- 저계수 및 저계수‑그룹 정규화는 Singular Value Thresholding(SVT) 기반의 근접 연산을 포함한다.
실험 설계
두 개의 실제 HSI 데이터셋(Indian Pine, University of Pavia)과 간단한 toy example을 사용한다. 각각 10%~2% 수준의 훈련 샘플을 무작위 선택해 사전을 구성하고, 나머지를 테스트한다. 평가 지표는 전체 정확도(OA), 평균 정확도(AA), 그리고 Kappa(κ)이다.
결과 요약
- Indian Pine에서는 LRG가 OA 92.58%, κ 0.923을 달성, LS와 JS가 각각 83.74%와 71.17%에 머문다.
- Pavia에서는 LRG가 OA 81.02%, κ 0.843을 기록, 특히 저계수(LR)와 그룹 라쏘(GS)보다 우수했다.
- 일부 클래스(예: 클래스 7, 9)에서는 훈련 샘플이 매우 적어 모든 방법이 낮은 성능을 보였으나, 전반적으로 LRG가 가장 일관된 향상을 제공한다.
- 시각적 결과에서도 LRG가 경계와 혼합 영역을 명확히 구분, 잡음에 강인함을 확인했다.
의의와 한계
구조화된 정규화는 HSI의 고차원·고상관 특성을 효과적으로 활용한다는 점에서 의미가 크다. 특히 LRG는 하나의 정규화 항만으로 복합적인 공간‑스펙트럼 정보를 포착한다는 점에서 구현 복잡성을 낮춘다. 그러나 핵노름 연산은 대규모 데이터에서 계산 비용이 높으며, 파라미터 λ, w_g의 선택이 성능에 민감하다. 또한, 매우 작은 훈련 샘플 수에서는 여전히 과적합 위험이 존재한다.
향후 연구 방향
- 딥러닝 기반 사전 학습과 구조화 정규화를 결합한 하이브리드 모델.
- 온라인/증분 핵노름 최적화 기법을 도입해 실시간 처리 가능성 탐색.
- 다중 스케일 이웃 정의와 동적 가중치 학습을 통해 경계 영역에서의 정밀도 향상.
댓글 및 학술 토론
Loading comments...
의견 남기기