자율주행 RC카 행동 복제
초록
본 논문은 행동 복제(Behavioral Cloning) 기법을 활용해 일반 라디오컨트롤(RC) 모델카를 딥러닝 기반 자율주행 차량으로 변환하는 방법을 제시한다. 카메라 영상과 조향각 데이터를 수집해 CNN 모델을 학습시키고, 학습된 모델을 라즈베리파이와 모터 드라이버에 탑재해 실시간으로 스티어링 명령을 생성한다. 실험 결과, 제한된 트랙에서 인간 운전자의 주행 패턴을 성공적으로 모방함을 확인하였다.
상세 분석
이 연구는 행동 복제라는 비교적 단순하면서도 효과적인 지도학습 접근법을 RC카에 적용함으로써 저비용 자율주행 시스템 구현의 가능성을 입증한다. 데이터 수집 단계에서는 1인칭 시점의 RGB 영상과 동시에 조향각(스티어링 휠 각도) 값을 기록한다. 저해상도(160×120) 영상으로 다운샘플링하고, 색상 정규화와 히스토그램 평활화 같은 전처리 과정을 거쳐 모델 입력으로 사용한다. 모델 아키텍처는 NVIDIA의 End‑to‑End 자율주행 논문에서 영감을 받은 5계층 CNN을 변형한 형태이며, 각 합성곱 층 뒤에 ReLU 활성화와 배치 정규화를 적용해 학습 안정성을 높였다. 마지막 완전연결층에서는 스티어링 각도를 회귀값으로 출력하도록 설계했으며, 손실 함수는 평균제곱오차(MSE)를 사용한다.
학습은 Adam 옵티마이저(learning rate 1e‑4)와 배치 크기 64로 30 epoch 동안 진행했으며, 과적합 방지를 위해 조기 종료와 L2 정규화를 병행했다. 검증 데이터셋에서의 MSE는 0.018 정도로, 실제 주행 시 평균 오차가 2~3도 이하로 유지되어 인간 운전자의 조향 패턴을 충분히 재현한다는 점을 보여준다.
실시간 추론은 라즈베리파이 4 Model B에서 TensorFlow Lite 변환 모델을 이용해 수행했으며, 평균 프레임당 처리 시간은 약 30 ms(≈33 FPS)로 실시간 제어에 충분한 속도를 제공한다. 제어 인터페이스는 PWM 신호를 이용해 서보 모터에 스티어링 명령을 전달하고, DC 모터 드라이버를 통해 속도를 조절한다. 또한, 급격한 조향 변화를 완화하기 위해 저역통과 필터(α=0.2)를 적용해 스무딩 효과를 얻었다.
실험은 직선 구간, S자 커브, 급커브 등 다양한 트랙 구성을 포함했으며, 각 구간에서 차량이 트랙을 이탈하지 않고 목표 경로를 따라 주행하는 비율은 92 %에 달했다. 그러나 조명 변화(그림자, 햇빛 반사)와 배경 잡음에 대한 일반화 성능은 제한적이며, 데이터 증강(회전, 밝기 변환)과 도메인 적응 기법을 추가 적용하면 개선될 여지가 있다. 또한, 현재 시스템은 속도 제어를 고정값으로 유지하고 있어 급제동이나 가속 상황에 대한 대응이 부족한 점도 한계로 지적된다.
전체적으로 이 논문은 저비용 하드웨어와 비교적 간단한 딥러닝 파이프라인만으로도 실용적인 자율주행 프로토타입을 구현할 수 있음을 증명한다. 행동 복제 방식은 복잡한 경로 계획이나 센서 융합 없이도 인간 운전자의 직관적인 주행 전략을 그대로 학습할 수 있다는 장점이 있다. 향후 연구에서는 강화학습 기반의 보상 설계, 멀티모달 센서(라이다, 초음파) 통합, 그리고 시뮬레이션‑실제 간 도메인 차이를 줄이는 전이 학습 기법을 도입해 시스템의 견고성과 확장성을 높일 수 있을 것이다.