불변 변환과 재샘플링 기반 인식 불확실성 감소
초록
본 논문은 학습된 인공지능 모델에 입력을 불변 변환하여 여러 버전을 생성하고, 각각의 추론 결과를 재샘플링 방식으로 집계함으로써 에피스테믹(모델) 불확실성을 감소시키는 방법을 제안한다. 변환된 샘플 간의 오류 독립성을 이용해 평균화하거나 가중 평균을 적용하면 기존 단일 추론 대비 정확도가 향상되며, 모델 크기와 성능 사이의 트레이드오프를 완화할 수 있다.
상세 분석
이 연구는 AI 모델을 고차원 함수로 보는 관점에서 시작한다. 입력 x와 출력 y 사이의 매핑 f 는 학습 단계에서 파라미터 θ 에 의해 고정되지만, 실제 운영 환경에서는 데이터 잡음(aleatoric)과 모델 자체의 불완전성(epistemic)으로 인해 추론 오류가 발생한다. 특히 에피스테믹 불확실성은 모델이 학습 데이터에서 충분히 탐색하지 못한 영역에서 나타나며, 동일 입력에 대해 다른 초기화나 미세한 파라미터 변동에 따라 출력이 크게 달라질 수 있다.
저자들은 “불변 변환(invariant transformation)”이라는 개념을 도입한다. 이는 이미지 회전, 스케일링, 색상 변환 등 인간이 인식상 동일하다고 판단하는 변환을 의미한다. 이러한 변환을 적용하면 원본 입력 x 와 변환된 입력 x′ 는 의미적으로 동일하지만, 모델 내부에서는 서로 다른 경로를 통과한다. 따라서 에피스테믹 불확실성에 의해 발생하는 오류가 부분적으로 독립적인 특성을 보인다.
핵심 아이디어는 다수의 변환된 샘플 {x₁′, x₂′, …, xₙ′} 에 대해 각각 추론을 수행하고, 그 결과 {y₁′, y₂′, …, yₙ′} 를 통계적으로 집계하는 “재샘플링(resampling) 기반 추론”이다. 집계 방법으로는 단순 평균, 가중 평균, 베이지안 모델 평균, 혹은 다수결 투표 등이 고려된다. 이때 가중치는 변환에 대한 신뢰도, 모델의 출력 불확실성(예: 소프트맥스 확률의 엔트로피) 등을 기반으로 동적으로 조정될 수 있다.
실험에서는 이미지 분류와 물체 검출 두 가지 태스크에 대해 ResNet, EfficientNet, YOLO 등 다양한 아키텍처에 적용하였다. 변환 집합은 회전(±15°), 좌우 반전, 색상 채도 조절 등 8가지 조합으로 구성했으며, n=8일 때 평균 정확도가 1.2~2.5 %p 상승함을 보고했다. 특히 작은 모델(파라미터 5 M 이하)에서 큰 모델 대비 동일 수준의 정확도를 달성했으며, 이는 모델 크기와 성능 사이의 균형을 재조정할 수 있음을 시사한다.
또한, 에피스테믹 불확실성을 정량화하기 위해 MC‑Dropout과 Deep Ensembles를 베이스라인으로 사용했으며, 제안 방법이 이들보다 더 낮은 예측 분산을 보였다. 이는 변환에 의한 다중 추론이 모델 내부의 파라미터 공간을 효과적으로 샘플링함을 의미한다.
한계점으로는 변환 비용이 증가한다는 점과, 변환이 의미론적으로 완전히 불변이 아닐 경우(예: 회전이 의미를 바꾸는 경우) 오히려 오류가 증폭될 수 있다는 점을 언급한다. 향후 연구에서는 변환 선택을 자동화하는 메타‑러닝 기법과, 비전 외 텍스트, 시계열 데이터에 대한 일반화 가능성을 탐색할 계획이다.