대형 언어 모델(LLM)로 구현하는 동적·개인화 접근 제어 시스템

읽는 시간: 7 분
...

📝 Abstract

Precise access control decisions are crucial to the security of both traditional applications and emerging agent-based systems. Typically, these decisions are made by users during app installation or at runtime. Due to the increasing complexity and automation of systems, making these access control decisions can add a significant cognitive load on users, often overloading them and leading to suboptimal or even arbitrary access control decisions. To address this problem, we propose to leverage the processing and reasoning capabilities of large language models (LLMs) to make dynamic, context-aware decisions aligned with the user’s security preferences. For this purpose, we conducted a user study, which resulted in a dataset of 307 natural-language privacy statements and 14,682 access control decisions made by users. We then compare these decisions against those made by two versions of LLMs: a general and a personalized one, for which we also gathered user feedback on 1,446 of its decisions. Our results show that in general, LLMs can reflect users’ preferences well, achieving up to 86% accuracy when compared to the decision made by the majority of users. Our study also reveals a crucial trade-off in personalizing such a system: while providing user-specific privacy preferences to the LLM generally improves agreement with individual user decisions, adhering to those preferences can also violate some security best practices. Based on our findings, we discuss design and risk considerations for implementing a practical natural-language-based access control system that balances personalization, security, and utility.

💡 Analysis

**

1. 연구 배경 및 동기

  • 접근 제어의 인지 부하: 기존 연구

📄 Content

LLM이 (개인화된) 접근 제어 결정을 내릴 수 있을까?
Friederike Groschupp∗, Daniele Lain∗, Aritra Dhar†, Lara Magdalena Lazier†, Srdjan ˇCapkun∗

∗ ETH 취리히 컴퓨터 과학과, 스위스
 {friederike.groschupp, daniele.lain, srdjan.capkun}@inf.ethz.ch
† Huawei Technologies Switzerland AG, Computing Systems Lab
 {aritra.dhar, lara.magdalena.lazier2}@huawei.com


초록

정확한 접근 제어 결정은 전통적인 애플리케이션은 물론, 새롭게 등장하는 에이전트 기반 시스템의 보안에 필수적이다. 일반적으로 이러한 결정은 사용자가 앱을 설치하거나 실행 중에 직접 내린다. 시스템이 점점 복잡해지고 자동화됨에 따라, 사용자는 접근 제어 결정을 내릴 때 큰 인지적 부담을 겪게 되고, 이는 종종 최적이 아닌, 때로는 임의적인 결정으로 이어진다. 이 문제를 해결하고자 우리는 대형 언어 모델(LLM)의 처리·추론 능력을 활용해, 사용자의 보안 선호도에 맞춘 동적·맥락 인식 결정을 자동으로 내리는 방안을 제안한다. 이를 위해 307개의 자연어 기반 개인정보 보호 진술문과 14,682개의 사용자가 직접 내린 접근 제어 결정을 포함하는 데이터셋을 구축하기 위해 사용자 연구를 수행하였다. 이후 두 종류의 LLM(일반 모델과 개인화 모델)이 내린 결정을 비교했으며, 개인화 모델에 대해서는 1,446개의 결정에 대한 사용자 피드백도 수집하였다.

실험 결과, LLM은 일반적으로 사용자의 선호를 잘 반영하여, 다수 사용자가 내린 결정과 비교했을 때 최대 86%의 정확도를 보였다. 또한, 개인화된 LLM은 개별 사용자의 결정과의 일치도를 향상시키는 경향이 있지만, 이 과정에서 일부 보안 모범 사례를 위반할 위험도 존재한다는 중요한 트레이드오프를 발견하였다. 이러한 결과를 바탕으로, 개인화·보안·유용성을 균형 있게 조절할 수 있는 실용적인 자연어 기반 접근 제어 시스템을 구현하기 위한 설계·위험 고려사항을 논의한다.


1. 서론

대형 언어 모델(LLM)의 역량이 급격히 향상됨에 따라, 방화벽 규칙 자동 생성[1], 보안 버그 탐지[2], 형식 검증[3] 등 전통적인 보안 문제 해결에 점점 더 많이 활용되고 있다. 우리는 여기서 접근 제어라는, 사용자에게 큰 인지적 부담을 주어 종종 비효율적인 결정을 초래하는 분야에 주목한다[4][5][6].

본 연구는 최신 LLM을 이용해 사용자를 대신해 개인화된 런타임 접근 제어 결정을 자동으로 내릴 수 있는지를 탐구한다. 이를 위해 대규모 사용자 데이터를 수집하거나 모델을 재학습·미세조정하는 방식을 피하고자 한다. 대신 사용자는 자신의 접근 제어 선호도를 간단히 서술한 프라이버시 진술문(짧은 자연어 문장)만 제공한다. LLM은 이 진술문과 접근 요청에 대한 맥락 정보를 바탕으로 결정을 내리며, 사용자의 요구와 보안 고려사항을 동시에 만족시키도록 설계된다.

LLM이 사용자의 프라이버시 선호를 정확히 반영해 접근 제어 결정을 내리는 일은 결코 간단하지 않다. 첫째, LLM의 추론 품질은 입력에 크게 좌우된다[7]; 따라서 부정확하거나 모호하게 표현된 프라이버시 진술은 낮은 정확도의 결정을 초래할 수 있다. 둘째, 보안 분야에서 자기 보고 행동은 편향과 프라이버시 패러독스[8][9][10]에 의해 실제 행동과 괴리를 보인다[11]. 셋째, LLM 자체의 환각[12]·편향[13] 문제는 원치 않는 결정을 야기할 위험이 있다.

따라서 우리는 다음과 같은 질문을 제기한다.

LLM이 사용자가 제공한 몇 개의 자연어 지시문만으로 사용자의 프라이버시 선호를 파악하고, 이를 기반으로 접근 제어 결정을 대신 내릴 수 있는가?

이를 검증하기 위해 우리는 사용자 연구를 진행하여, (1) 사용자가 직접 작성한 프라이버시 진술문, (2) 스마트폰 애플리케이션 권한 요청에 대한 사용자의 접근 제어 결정, (3) LLM이 내린 결정에 대한 사용자의 피드백을 포함하는 새로운 데이터셋을 구축하였다. 현재까지 알려진 바에 따르면, 이는 개인화된 자연어 프라이버시 진술과 해당 진술에 기반한 접근 제어 결정을 동시에 포함한 최초의 데이터셋이다. 이 데이터셋을 활용해 LLM의 접근 제어 결정이 (i) 평균 사용자 판단, (ii) 개별 사용자 선호, (iii) 일반적인 보안 모범 사례와 어느 정도 일치하는지를 체계적으로 평가한다.

실험 결과, LLM은 일반적인 인간 판단을 상당히 잘 반영한다. 다수 사용자의 결정과 비교했을 때 88%까지 일치했으며, 대부분의 경우 표준 보안 관행과도 부합한다. 그러나 개인별 차이는 크게 나타났으며, 일부 사용자는 LLM과의 일치도가 27%에 불과했다. 프라이버시 진술을 활용한 개인화는 전체 일치도를 약 2~5% 향상시켰지만, 사용자마다 효과는 천차만별이었다. 진술이 명확하고 일관된 사용자는 일치도가 크게 상승(최대 100%)했지만, 진술이 실제 행동과 불일치하거나 모호한 경우에는 오히려 일치도가 감소했다.

또한, 일치도가 항상 바람직한 것은 아니다. 사용자는 LLM의 결정에 동의했을 때 그 이유를 “LLM의 추론이 합리적이다”라고 평가했지만, 불일치 상황에서도 27~64%의 비율로 LLM의 선택을 선호했다. 특히, 명확히 “거부”가 정답인 상황(예: 민감한 파일에 대한 무관한 접근 요청)에서는 LLM이 사용자의 선택을 무시하고 전문가 수준의 결정을 내림으로써 보안 위협을 방지하고 보다 안전한 행동을 유도했다. 이러한 관점에서 본 연구의 LLM 성공률은 작업 유형에 따라 79%에서 99% 사이로 추정된다.


2. 연구 동기 및 주요 결과

2.1 연구 질문

연구 질문가설
RQ1. LLM이 일반적인 인간 판단과 일치하는 합리적인 접근 제어 결정을 내릴 수 있는가?H1.1: LLM의 결정은 평균 인간의 의사결정을 반영한다.
H1.2: 명확한 경우 LLM은 올바른 결정을 내린다.
RQ2. 개인화가 LLM의 접근 제어 결정에 어떤 영향을 미치는가? (모델 재학습·미세조정이 아닌 in‑context learning 기반)H2.1: 개인화된 LLM은 개별 사용자의 결정과 일치도가 높아진다.
H2.2: 모든 사용자에 대해 일치도가 향상된다.
H2.3: 개인화 LLM과 인간 결정이 충돌할 경우, LLM의 결정은 다른 증거에 의해 뒷받침된다.
RQ3. 어떤 설정·입력 요인이 좋은 LLM 결정을 이끌어내는가?H3.1: 길고 맥락에 맞는 진술문이 개인화 정확도를 높인다.
H3.2: LLM 기반 접근 제어는 거짓 양성을 최소화하면서도 유용성과 사용성을 유지하도록 구성될 수 있다.

2.2 핵심 결과

  1. 일반 LLM은 합리적인 접근 제어 결정을 내린다

    • 명확한 상황에서는 전문가 수준의 결정을 내렸으며, 다수 사용자가 기대하는 “허용/거부”와 일치했다.
    • 주관적 상황에서도 70~86%의 일치도를 보이며, 비전문가 사용자에게도 충분히 안전한 결정을 제공한다.
  2. 개인화는 모든 사용자에게 동일하게 적용되지 않는다

    • 전체 사용자를 대상으로 할 때 개인화는 일치도를 2~5% 정도 상승시켰다.
    • 그러나 일부 사용자는 개인화로 인해 일치도가 크게 상승(최대 100%)했으며, 반대로 진술이 실제 행동과 불일치하는 경우에는 일치도가 크게 감소했다.
    • 특히, 프라이버시 진술이 구체적이고 일관된 “극단적” 사용자(예: 매우 프라이버시를 중시하는 사용자)는 개인화로부터 큰 이득을 얻는다.
  3. LLM 결정은 때때로 사용자보다 안전할 수 있다

    • 사용자가 “동의”를 표시했음에도 불구하고, LLM이 제시한 보안‑중심적인 이유에 설득된 경우가 48%에 달했다.
    • 특히 LLM이 더 제한적인 선택(거부)을 제안했을 때, 59%의 사용자가 최종적으로 LLM의 권고에 따랐다. 이는 LLM이 보안 넛지 역할을 할 수 있음을 시사한다.
  4. 전문가 수준의 정확도와 사용자 피드백을 결합하면 LLM의 최종 성공률은 86% 이상

    • 명확히 “허용”이 정답인 경우 94%까지 정확도를 기록했으며, 보안‑민감한 상황에서도 약 80% 수준의 올바른 결정을 내렸다.
  5. LLM의 토큰 확률을 활용해 결정 부담을 조절할 수 있다

    • 일부 모델에서는 결정 토큰의 확률이 사용자 합의 정도와 상관관계가 있었으며, 이를 신뢰 임계값으로 활용하면 “허용” 결정을 자동화하면서도 보안 오류를 최소화할 수 있다.
    • 예를 들어, 개인화된 GPT‑4o 모델에 대해 “허용”에 높은 신뢰도(>0.9)와 “거부”에 중간 신뢰도(>0.6)를 설정하면 전체 요청의 64%를 자동 처리하면서 보안 관련 실수를 거의 발생시키지 않았다.

3. LLM 기반 접근 제어

3.1 시스템 구성

LLM 기반 접근 제어는 전통적인 운영체제의 파일·센서 접근 제어 모듈이나, 에이전트 기반 시스템[20][23]의 정보 흐름 제어에 독립적인 모듈로 통합될 수 있다.

  1. 사용자 입력 – 사용자는 자신의 접근 제어 선호를 자연어 문장으로 기술한다. 이 문장은

    • 고수준(예: “필요할 때만 데이터를 공유하고 싶다”)
    • 특정 도메인(예: “다른 사람에 관한 정보는 매우 신중히 다룬다”)
    • 구체적 규칙(예: “내 팀 동료만 내 전체 캘린더를 볼 수 있고, 다른 직원은 ‘가능 시간’만 볼 수 있다”)
      형태로 구성될 수 있다. 우리는 이를 프라이버시 진술문이라고 부른다.
  2. 시스템 프롬프트 – LLM에게 상황적 요인과 사용자의 진술을 고려해 접근 제어 결정을 내리도록

이 글은 AI가 자동 번역 및 요약한 내용입니다.

검색 시작

검색어를 입력하세요

↑↓
ESC
⌘K 단축키