구조적 다양성이 분류 정확도에 미치는 영향
본 연구는 9개의 다층 퍼셉트론(MLP) 앙상블을 구성하고, 각 모델의 은닉 노드 수, 학습률, 활성화 함수라는 구조적 파라미터를 변형하여 구조적 다양성을 정의한다. Kohavi‑Wolpert 분산(KW) 지표로 다양성을 정량화하고, 유전 알고리즘(GA)으로 60개의 후보 모델 중 목표 다양성을 만족하는 9개 모델을 선택한다. 실험 결과, 다양성이 증가할수록 정확도가 향상되지만, 다양성 지표가 약 0.16을 초과하면 오히려 오류가 증가한다는 비…
저자: Lesedi Masisi, Fulufhelo V. Nelwamondo, Tshilidzi Marwala
본 논문은 ‘구조적 다양성’이라는 새로운 개념을 도입해 앙상블 분류기의 성능을 향상시키는 방법을 제시한다. 연구자는 60개의 다층 퍼셉트론(MLP) 모델을 생성하고, 각 모델의 은닉 노드 수, 학습률, 활성화 함수라는 세 가지 구조적 파라미터를 변형한다. 이 파라미터들을 12비트 이진 문자열인 Identity Structure(IDS)로 인코딩함으로써, 각 모델을 고유하게 식별하고 구조적 차이를 정량화한다.
다음으로, Kohavi‑Wolpert 분산(KW) 공식을 적용해 IDS 간의 차이로부터 구조적 다양성 값을 계산한다. 기존 연구에서 주로 사용되는 ‘출력 기반 다양성’(예: Yule’s Q, 상관계수 등)과 달리, 본 논문은 모델 자체의 설계 차이를 다양성의 근원으로 삼는다.
그 후, 유전 알고리즘(GA)을 활용해 60개의 후보 모델 중 목표 KW 값을 만족하는 9개의 모델을 자동으로 선택한다. GA는 초기 개체군 20개, 28세대, 교차율 0.08을 사용했으며, 적합도 함수는 측정된 다양성(현재 KW)과 목표 다양성(타깃 KW) 사이의 차이를 최소화하도록 설계되었다. GA는 목표 다양성에 근접한 조합을 찾지 못할 경우, 탐색 가능한 KW 범위를 재조정하는 두 단계 전략을 적용한다.
선택된 9개 모델은 다수결 투표 방식으로 결합된다. 투표 방식은 구현이 간단하고, 구조적 다양성 자체가 모델 간 상호 보완성을 제공한다는 가정에 기반한다.
실험 데이터는 국제 분쟁 데이터셋으로, 7개의 입력 피처(동맹, 거리, 주요 전력 등)와 이진 출력(분쟁 여부)으로 구성된다. 데이터는 0~1 사이로 정규화했으며, 학습‑검증‑시험 비율은 각각 1006, 317, 552개 사례로 나누었다. 데이터는 심각한 클래스 불균형을 보였지만, 평균 제곱 오차(MSE)를 주요 성능 지표로 사용하였다.
실험 결과, KW가 0.11에서 0.16으로 증가함에 따라 MSE가 0.3128에서 0.2749로 감소하였다. 이는 구조적 다양성이 증가하면 개별 모델의 오류가 상쇄되어 전체 정확도가 향상된다는 것을 의미한다. 그러나 KW가 0.16을 초과하면 MSE가 다시 상승하는 현상이 관찰되었다. 이는 과도한 구조적 차이가 모델 간의 상호 보완성을 약화시키고, 오히려 오류를 증폭시킬 수 있음을 보여준다. 또한, 전체 60개 모델의 최대 KW가 0.2024였으며, 이 값을 초과하는 목표 다양성은 탐색이 불가능함을 확인했다.
논문의 주요 기여는 다음과 같다. 첫째, IDS라는 이진 인코딩을 통해 구조적 파라미터를 정량화하고, 이를 기반으로 KW를 적용해 구조적 다양성을 측정한 점. 둘째, GA를 이용해 목표 다양성을 만족하는 최적 앙상블을 자동으로 구성한 실험적 프레임워크를 제시한 점. 셋째, 구조적 다양성이 일정 수준까지는 정확도를 향상시키지만, 과도한 다양성은 성능 저하를 초래한다는 비선형 관계를 실증적으로 밝혀낸 점이다.
하지만 연구에는 몇 가지 한계가 있다. 사용된 데이터셋이 하나뿐이며, 다른 도메인이나 더 큰 규모의 데이터에 대한 일반화 검증이 부족하다. 또한, MLP 외의 다른 분류기(예: SVM, 결정 트리)와의 비교가 없으며, 투표 외의 집계 방법(가중 투표, 스태킹 등)에 대한 탐색이 제한적이다. 향후 연구에서는 다양한 모델 아키텍처와 집계 전략을 결합하고, 불균형 데이터에 대한 정밀도·재현율 등 추가 성능 지표를 도입함으로써 구조적 다양성의 실용성을 확대할 필요가 있다.
원본 논문
고화질 논문을 불러오는 중입니다...
댓글 및 학술 토론
Loading comments...
의견 남기기