노코드 AI 플랫폼을 위한 인간 중심 XAI 모듈: DashAI 사용자 연구
초록
본 논문은 오픈소스 노코드 머신러닝 툴 DashAI에 부분 의존도 플롯(PDP), 순열 특성 중요도(PFI), KernelSHAP을 통합한 설명 가능 AI(XAI) 모듈을 설계·구현하고, ML 초보자와 전문가 20명을 대상으로 사용성·만족도·신뢰도를 평가하였다. 모든 설명 작업에서 80 % 이상의 성공률을 보였으며, 초보자는 설명을 유용·정확·신뢰할 수 있다고 평가했지만 전문가들은 상세성·완전성에 더 높은 기대를 보였다. 설명 제공이 자동화 신뢰도(TiA)에도 긍정적 영향을 미쳤다.
상세 분석
이 연구는 XAI가 실제 업무 흐름에 자연스럽게 녹아들어야 한다는 가정 하에, 세 가지 상보적인 설명 기법을 선택했다. PDP는 개별 특성의 평균적인 영향도를 시각화해 전역적 이해를 돕고, PFI는 모델 성능 저하를 기반으로 특성 중요도를 순위화한다. KernelSHAP은 샘플 수준에서 각 특성이 예측에 기여한 값을 정량화해 로컬 설명을 제공한다. 이러한 조합은 ‘전역‑국부’ 이중 관점을 동시에 제공함으로써, 초보자는 직관적인 그래프를 통해 모델 동작을 파악하고, 전문가들은 SHAP 값의 수치적 해석을 통해 모델 오류 원인을 진단할 수 있다.
시스템 설계는 DashAI의 기존 UI에 ‘Explainers’ 탭을 추가하고, 사용자가 모델 학습 직후 클릭 한 번으로 설명을 생성하도록 구현했다. 인터페이스는 드래그‑앤‑드롭 방식의 데이터 로딩, 실험 설정, 예측 결과 확인 흐름을 유지하면서, 설명 결과를 모달 창이나 별도 패널에 동적으로 표시한다. 이는 사용성 평가에서 높은 SUS 점수와 80 % 이상의 작업 성공률로 입증되었다.
사용자 연구는 두 가지 시나리오(점진적 분석 vs. 통합 분석)를 비교했으며, 통계적으로 유의미한 차이는 없었다. 이는 설명 기법 자체가 사용자의 이해에 큰 차이를 주지 않으며, UI가 일관되게 제공될 때 사용자는 자유롭게 탐색할 수 있음을 시사한다.
설명 만족도(ESS)와 자동화 신뢰도(TiA) 척도에서 초보자는 ‘유용성’, ‘정확성’, ‘신뢰성’ 항목에서 평균 5점(5점 척도) 가까운 높은 점수를 주었고, 전문가들은 ‘세부사항 충분성’·‘완전성’에서 평균 3~4점 수준으로 다소 보수적인 평가를 내렸다. 이는 XAI 설계 시 ‘깊이 조절 가능한 설명 레이어’를 제공해야 함을 의미한다. 또한 TiA의 Cronbach α가 0.60으로 다소 낮아 신뢰도 확보를 위해 향후 설문 항목을 재구성하거나 추가적인 정성 인터뷰를 보완할 필요가 있다.
결론적으로, 이 논문은 노코드 환경에서도 복합적인 XAI 기법을 통합함으로써 사용성·신뢰성을 동시에 달성할 수 있음을 실증했다. 그러나 전문가용 고급 분석 기능(예: SHAP 값의 상관관계 시각화, 특성 상호작용 탐색 등)을 별도 플러그인 형태로 제공한다면, 전문가 만족도를 더욱 높일 수 있을 것으로 보인다. 향후 연구는 대규모 언어 모델(Large Language Model) 설명으로 확장하고, 사용자 전문성에 따라 설명 깊이를 자동으로 조절하는 적응형 인터페이스 설계가 필요하다.
댓글 및 학술 토론
Loading comments...
의견 남기기