온코티미아: LLM 기반 종양 협의회 자동화 솔루션

온코티미아: LLM 기반 종양 협의회 자동화 솔루션
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

**
본 논문은 온코티미아(OncoTimia)라는 모듈형·보안 강화 시스템을 소개한다. 이 시스템은 다학제 종양 협의회(MDTB)에서 사용되는 폐암 환자 기록 양식을 대규모 언어 모델(LLM)과 검색‑증강 생성(RAG) 기술을 결합해 자동 완성한다. 10건의 임상 사례에 6가지 AWS Bedrock LLM을 적용해 양식 정확도와 응답 지연을 평가했으며, 최고 모델이 80% 정확도와 임상적으로 허용 가능한 지연 시간을 달성했다는 결과를 제시한다.

**

상세 분석

**
온코티미아는 데이터 레이크 기반의 3계층(landing‑staging‑refined) 구조와 관계형·벡터 데이터베이스를 혼합한 하이브리드 스토리지를 핵심으로 한다. 원문 PDF·DOCX 등 비정형 문서는 LangChain 로더와 Nomic 임베딩 모델을 이용해 Qdrant 벡터 스토어에 저장하고, 구조화된 변수(연령, ECOG 등)는 PostgreSQL에 보관한다. 이렇게 구축된 저장소는 RAG 파이프라인에서 질의‑응답 및 문맥 추출에 활용되며, LLM 추상화 레이어가 모델 호출을 표준화하고 안전성·감시 로직을 삽입한다.

양식 자동 완성은 규칙 기반 적응형 폼 모델과 연계된다. Block 1을 중심으로 환자 위험인자·치료 이력·영상·병리·분자 마커 등 7개 블록을 동적으로 활성화한다. LLM은 Block 1에 입력된 텍스트를 요약·정규화하고, 사전 정의된 규칙에 따라 후속 블록을 선택·채우는 역할을 수행한다.

성능 평가에서는 Anthropic Claude‑2, Meta Llama 2‑70B, Mistral‑Large 등 6개 최신 모델을 사용했으며, 각 모델에 대해 10건의 합성 폐암 사례를 대상으로 필드별 정확도와 전체 파이프라인 지연을 측정했다. 평균 정확도는 68%였으며, 최고 모델은 80%를 기록했다. 지연은 대부분 2~4초 내외였고, 가장 큰 모델에서도 6초를 초과하지 않아 임상 워크플로우에 실시간 적용이 가능함을 보여준다.

주요 인사이트는 다음과 같다. ① 하이브리드 저장소와 RAG 결합이 비정형 임상 문서의 의미 추출을 크게 향상시킨다. ② 규칙 기반 폼 로직과 LLM의 자연어 생성 능력을 결합하면 복잡한 MDTB 양식도 자동화할 수 있다. ③ 모델 규모와 최신성은 정확도에 긍정적 영향을 주지만, 지연 증가가 제한적이어서 실무 적용에 큰 장애가 아니다. ④ 아직도 hallucination·오류 위험이 존재하므로 인간 검증 단계가 필수이며, 규제·프라이버시 관점에서 데이터 암호화·접근 통제 등 보안 설계가 강조된다.

**


댓글 및 학술 토론

Loading comments...

의견 남기기